Visually Grounded Adaptive Social Dialogue for Robots
- Promovendus/a
- Janssens, Ruben
- Faculteit
- Faculteit Ingenieurswetenschappen en Architectuur
- Vakgroep
- Vakgroep Elektronica en Informatiesystemen
- Curriculum
- Master of Computer Science Engineering, Universiteit Gent, 2021
- Academische graad
- Doctor in de ingenieurswetenschappen: computerwetenschappen
- Taal proefschrift
- Engels
- Vertaling titel
- Adaptieve sociale dialoog voor robots verankerd in een visuele context
- Promotor(en)
- prof. Tony Belpaeme, vakgroep Elektronica en Informatiesystemen - prof. Thomas Demeester, vakgroep Informatietechnologie
- Examencommissie
- voorzitter prof. Gert De Cooman (ere-onderwijsdirecteur) - prof. Mohamed Chetouani, Sorbonne Université (Frankrijk) - prof. Tijl De Bie, vakgroep Elektronica en Informatiesystemen - prof. Kris Demuynck, vakgroep Elektronica en Informatiesystemen - prof. Veronique Hoste, vakgroep Vertalen, tolken en communicatie - prof. Marta Romeo, Heriot-Watt University (Verenigd Koninkrijk) - promotor prof. Tony Belpaeme, vakgroep Elektronica en Informatiesystemen - promotor prof. Thomas Demeester, vakgroep Informatietechnologie
Korte beschrijving
Onderzoekers proberen al decennia sociale robots te bouwen die een vlot gesprek kunnen voeren. Hoewel we weten dat robots grote voordelen kunnen bieden, bijvoorbeeld in het onderwijs of de zorg, botste men steeds op de complexiteit van gesprekken. Een van die complexe elementen is hoe we in een gesprek meer gebruiken dan enkel woorden. We verwerken ook allerlei zaken die we zien, zoals wanneer we verwijzen naar de omgeving of onze gesprekspartner, of elkaar feedback geven over het gesprek via non-verbale communicatie. Dit doctoraat onderzocht hoe robots die visuele informatie kunnen gebruiken in gesprekken. Het gebruikte daarbij voor het eerst “fundamentele beeld-taalmodellen”, die ook de basis vormen voor populaire AI-toepassingen zoals ChatGPT. Die technologie zorgt ervoor dat robots steeds een gepast antwoord kunnen geven, ook al zegt de gebruiker iets onvoorziens. Dit onderzoek toonde dat dit ook werkt voor visuele informatie: beeld-taalmodellen kunnen tijdens gesprekken allerhande relevante zaken correct vermelden. Tegelijk missen deze modellen nog sociale vaardigheden, zoals weten wanneer iets gepast is om te vermelden of vooruitplannen in een gesprek. Dit doctoraat toonde dus aan dat door fundamentele modellen de gespreksvaardigheden van sociale robots een grote stap vooruit kunnen zetten, maar ook dat sociale interacties een uitdagend probleem voor de wetenschap blijven.
Praktisch
- Datum
- Dinsdag 31 maart 2026, 17:30
- Locatie
- Auditorium P Jozef Plateau, Plateaustraat 22, 9000 Gent
- Livestream
- Volg online
Meer info
- Contact
- doctoraat.ea@ugent.be