Pieter Delobelle is Lead AI Scientist bij Pleias en postdoc aan KU Leuven, waar hij werkt aan pretraining, tokenization & AI safety. Hij is de maker van RobBERT, de state-of-the-art Nederlandse taalmodelfamilie (top 80 model downloads op Hugging Face, 398 citaties), en heeft meegewerkt aan de meeste open Nederlandse LLMs.
Zijn werk is gepubliceerd op top AI- en NLP-venues, waaronder werk gedaan bij Apple en Aleph Alpha. Zijn onderzoek is verschenen in WIRED, MIT Technology Review, De Tijd en VTM Nieuws. Hij heeft onderzoeksbezoeken gedaan aan MilaNLP (Bocconi), HU Berlin en het Weizenbaum Institute.
Hij draagt bij aan AI-beleid als NLP-expert voor de EU AI Office's code of practice, was lid van de KU Leuven GenAI adviesraad, en zetelt in de KU Leuven raad voor onderzoeksbeleid. Hij behaalde zijn doctoraat aan KU Leuven in 2023 en heeft 1045+ citaties (h-index 14) verzameld over 32 publicaties.
Laatst bijgewerkt op 1 februari 2026.
Werk aan synthetic data en small language models.
Werk aan large language models en fairness in AI-systemen.
Leidde R&D van translation en explainability technieken, gedemonstreerd aan het EU-parlement. Bijdrage aan onderzoek over bias mitigation en LLM steering. Ontwikkelde verschillende inference-gerelateerde features, bv. multi-node Deepseek over Infiniband.
Leidde workshops over de werking van LLMs en AI safety voor klanten, bv. KBC senior management. Ontwikkelde LLMQ Python package voor het plannen van grote LLM inference jobs. NLP Expert voor de EU AI Office's code of practice voor foundation models.
Leidde ontwikkeling van tokenization onderzoek en bracht BübleLM-2B uit met HU Berlin. Onderzoeksbezoek aan Alan Akbik's groep aan HU Berlin. Docent voor de NLP-cursus aan KULAK. Lid van de KU Leuven GenAI commissie.
Leidde AurA project over controlling LLMs voor toxicity reduction, gepubliceerd op ICML 2024. Werkte met state-of-the-art modellen: Falcon 7B/40B, OPT, MPT, Mistral. Samenwerking met onderzoekers in Barcelona, Parijs en Cambridge.
PhD over fairer foundation models aan het DTAI lab met Prof. Luc De Raedt en Prof. Bettina Berendt. Ontwikkelde RobBERT, een Nederlands taalmodel in de top 80 wereldwijd op Hugging Face. Ervaring met grote taalmodellen (Falcon, OPT, MPT) en onderzoeksbezoeken aan MilaNLP en Weizenbaum Institute.
Onderzoek naar fault analysis in een distributed stream processing systeem.
Thesis over bias mitigation in large language models, begeleid door Prof. Luc De Raedt en Prof. Bettina Berendt.
Focus op machine learning en computer vision. Thesis over obstacle detection met Prof. Johan Suykens en CNH Industrial.
Focus op distributed systems. Thesis over failure detection in stream processing bij Nokia Bell Labs.