Zoekmachines proberen steeds beter onze vragen te beantwoorden. En chatbots gaan steeds vaker het internet op om op zoek te gaan naar relevante bronnen. ‘Zoekmachines en chatbots zullen steeds meer vervlochten raken’, zegt hoogleraar Suzan Verberne.
De hoogleraar Natural Language Processing aan het Leiden Institute of Advanced Computer Science (LIACS) richt zich vooral op het vinden van informatie in grote tekstcollecties. ‘We hebben allemaal gezien hoe krachtig chatbots zoals ChatGPT zijn. Maar we zien ook steeds duidelijker de risico’s, zoals hallucinaties en bias.’ Hallucinaties zijn geloofwaardige verzinsels in de antwoorden van chatbots, en bias verwijst naar vooroordelen die chatbots overnemen uit de teksten waarop ze getraind zijn en die ze soms zelfs uitvergroten.
De oplossing voor beide problemen ligt deels in de implementatie van zoekmachine-technologie, denkt Verberne. ‘Chatbots moeten niet alleen plausibele antwoorden genereren, maar ook correcte informatie ophalen uit de juiste bronnen.’ Verberne werkt aan methoden waarbij een zoekmachine ‘aan de achterkant’ van het taalmodel relevante documenten ophaalt. Het taalmodel formuleert op basis van de zoekresultaten dan een antwoord.
Lees het hele artikel op de site van Leiden Universiteit.