Hoe beperkt DL.Translator het optreden van ‘hallucinaties’ in AI-vertalingen?
“Grote taalmodellen zijn soms geneigd informatie te fabriceren of essentiële ontkenningen weg te laten om de zinnen vloeiender te maken.”
Analyse hoofdoorzaak
Contextverrijkte prompts
Wij sturen niet slechts één enkele zin naar de AI. We bundelen de context van vóór en na de alinea samen met de documentmetadata, en gebruiken een ‘systeemprompt’ die duizenden keren is getest om het model te instrueren strikt trouw te blijven aan de brontekst.
Multi-engine cross-verificatie (interne logica)
Bij geavanceerde vertaaltaken vergelijkt het systeem de vertaaluitvoer van verschillende engines. Als er inconsistenties worden vastgesteld in essentiële gegevens (zoals cijfers of datums), activeert het systeem een secundair verificatieproces.
Samenvatting definitieve oplossing
Hoewel AI hallucinaties niet volledig kan uitsluiten, heeft DL.Translator deze met technische maatregelen tot een voor professionele omgevingen acceptabel niveau teruggebracht.