NEC Laboratories Europe, das europäische Forschungs- und Entwicklungszentrum der NEC Corporation, erweitert die generativen KI-Dienste von NEC cotomi für Japan durch die Einführung von LLM Explainer, einer NEC-Technologie, die dabei hilft, Halluzinationen in den Ergebnissen gängiger Large Language Models (LLMs) zu erkennen und zu erklären.
LLMs sind eine Art generativer KI, die natürliche Sprache und andere Inhalte versteht und generiert. Obwohl sie zunehmend von der Industrie und von Endnutzern eingesetzt werden, um wissensbasierte Aktivitäten zu verbessern, produzieren LLMs häufig falsche Ausgabesätze, die allgemein als Halluzinationen bezeichnet werden. Dies schränkt ihren Einsatz in Situationen ein, die genaue Informationen erfordern oder mit Risiken verbunden sind, z. B. bei geschäftskritischen Vorgängen oder der Verwaltung kritischer Infrastrukturen.
Dr. Carolin Lawrence, Managerin und leitende Wissenschaftlerin bei NEC Laboratories Europe, erklärt: „Derzeit müssen Organisationen, die LLMs verwenden, manuell überprüfen, ob die Ausgabe korrekt ist, was zeitaufwändig und kostspielig sein kann. Durch die Integration von LLM Explainer ermöglicht NEC cotomi generative KI den Anwendern, die LLM-Ausgabe mit der entsprechenden Quelldokumentation zu vergleichen. Auf diese Weise können die Benutzer die Korrektheit des von LLM generierten Textes effizient überprüfen und verifizieren und ihn gegebenenfalls korrigieren.“
LLM Explainer nutzt die neuesten Fortschritte in der Verarbeitung natürlicher Sprache und vergleicht sowohl die Wörter als auch die Bedeutung von Sätzen, um Auslassungen, Doppelungen und Bedeutungsänderungen zwischen der ursprünglichen Quelldokumentation und den generierten Ausgabesätzen zu erkennen. Für jeden Ausgabesatz kann sich der Benutzer relevante Sätze aus der Originaldokumentation anzeigen lassen, anhand derer sich der Benutzer vergewissern kann, dass der Ausgabesatz der generativen KI korrekt ist.
Dr. Lawrence fügt hinzu: „Durch die Hervorhebung von Belegen und möglichen Unstimmigkeiten in einem einfachen Format für oft komplexe Informationen können Benutzer Korrekturen vornehmen und den von LLM generierten Text schnell an ihre Bedürfnisse anpassen.“
NEC plant, die Erkennung von LLM-Halluzinationen in generativen KI-Diensten zu verbessern, indem Funktionen wie das Auffinden halluzinierter Entitäten und die Identifizierung von Widersprüchen hinzugefügt werden, um die Erkennung und Korrektur von LLM-Diskrepanzen weiter zu beschleunigen.
LLM Explainer wird ab Ende Oktober in die generativen KI-API-Dienste von NEC cotomi für Japan integriert. Eine lokale „on-premise“-Version des Dienstes wird ebenfalls verfügbar sein.
Über NEC Corporation Die NEC Corporation hat sich als führendes Unternehmen in der Integration von IT- und Netzwerktechnologien etabliert und fördert die Markenbotschaft „Orchestrating a brighter world“. NEC ermöglicht es Unternehmen und Gemeinschaften, sich an die raschen Veränderungen der Gesellschaft und des Marktes anzupassen, indem es soziale Werte wie Sicherheit, Fairness und Effizienz fördert, um eine nachhaltigere Welt zu schaffen, in der jeder die Chance hat, sein volles Potenzial zu entfalten.
Weitere Informationen unter https://www.nec.com.
Informationen zu NEC Laboratories Europe GmbH
NEC Laboratories Europe widmet sich der Forschung und Entwicklung modernster Technologien zur Schaffung innovativer gesellschaftlicher Lösungen. Zu den Forschungsschwerpunkten von NEC Laboratories Europe in Heidelberg gehören künstliche Intelligenz, Blockchain-Sicherheit, 5G- und 6G-Netze sowie IoT-Plattformen. Diese Technologien fördern die Lösungen der NEC Gruppe für eine bessere Gesellschaft in den Bereichen digitale Gesundheit, sicherere Städte, öffentliche Dienstleistungen und Kommunikationsinfrastruktur.
Für weitere Informationen besuchen Sie https://www.neclab.eu.
View original content to download multimedia: https://www.prnewswire.com/news-releases/nec-verbessert-die-zuverlassigkeit-groWer-sprachmodelle-zur-beschleunigung-von-geschaftsanwendungen-302265745.html
Pressekontakt:
Cameron O’Donohue,
cameron.odonohue@neclab.eu,
+49 6221 4342-251