Nicolas Konnerth, Head of Conversational AI
Einen detaillierten Blick darauf, welche Large Language Models (LLMs) es bereits gibt, was sie leisten können und welche Fallstricke sie mit sich bringen, gibt es passend dazu im neuesten Blogbeitrag von Nicolas Konnerth, Head of Voice bei ERGO. LLMs berechnen aus der Erfahrung riesiger Datenmengen, welche Antwort ein Nutzer auf seine Frage wohl erwarten könnte. Die Antwort ist also eine statistische Wahrscheinlichkeit.
„Large Language Models wie GPT3, BERT oder LaMDA haben immer eine scheinbar perfekte Antwort parat und kommen einer echten Intelligenz so nahe, dass manche sogar behaupten, dahinter stecke eine echte Empfindungsfähigkeit“, schreibt Nicolas Konnerth. Doch: Die Technologie hat ihre Tücken. Mehr dazu sowie einige anschauliche Beispiele gibt es in seinem Blogbeitrag bei LinkedIn: