Für die Suche nach Inhalten geben Sie »Content:« vor den Suchbegriffen ein, für die Suche nach Orten geben Sie »Orte:« oder »Ort:« vor den Suchbegriffen ein. Wenn Sie nichts eingeben, wird in beiden Bereichen gesucht.

 

 

Forscher wollen KI Sprachmodelle zähmenZoom Button

LLMs: MIT will toxische Aussagen von Sprachmodellen verhindern. Bild: MIT, Informationen zu Creative Commons (CC) Lizenzen, für Pressemeldungen ist der Herausgeber verantwortlich, die Quelle ist der Herausgeber

Forscher wollen KI Sprachmodelle zähmen

#Forscher wollen #KI Sprachmodelle zähmen

Cambridge, San Francisco, PTE, 2. Mai 2024

Forscher des Massachusetts Institute of Technology (#MIT) haben eine Künstliche Intelligenz (KI) darauf trainiert, sich möglichst viele toxische Fragen auszudenken, damit sogenannte Großen Sprachmodelle (LLMs) wie »#ChatGPT«, »Claude 3 Opus« & Co. in jedem Fall von Gefahr verbreitenden Antworten abgehalten werden.

#Sprachmodelle matchen sich

Die KI generiert tatsächlich umfangreichere und vielfältigere negative Aufforderungen, als dies von menschlichen Red Teams, die sich manuell potenziell schädliche Fragen ausdenken und entsprechend negative Antworten herausfordern, jemals möglich wäre. Darüber hinaus haben die Forscher bestärkendes Lernen eingesetzt, um ein Sprachmodell zu motivieren, verschiedene Prompts zu erstellen, um toxische Reaktionen eines anderen Modells zu provozieren.

Prompts sind kurze Hinweise, zum Beispiel in Form von allgemeinen Fragen oder genauen Ausführungsanleitungen. Durch Belohnungen für die Generierung neuartiger Fragen und Aufforderungen, die schädliche Reaktionen hervorrufen, lernte das System, neue Wörter, Satzstrukturen und Bedeutungen zu erforschen, was zu einer breiteren Palette von toxischen Aufforderungen führte.

Überprüfung vor der Freigabe

»Es gibt bereits eine Flut von Modellen und es ist zu erwarten, dass diese Zahl noch steigen wird. Diese Modelle werden ein integraler Bestandteil unseres Lebens sein, und sie müssen überprüft werden, bevor sie für die Öffentlichkeit freigegeben werden«, fordert Pulkit Agrawal, Direktor des Improbable AI Lab am MIT. Sie sollen toxische Sprache wie abwertende oder obszöne Ausdrücke erkennen und verhindern, dass sie den Nutzern angezeigt werden.

»Das ist ein wichtiger Schritt, um sicherzustellen, dass LLMs nicht die denkbar schlechtesten Inhalte produzieren«, ergänzt Knar Hovakimyan, KI Experte bei Grammarly. Das US #Software Unternehmen bietet einen KI basierten Schreibassistenten an, der Texte in englischer Sprache überprüft und verbessert.

Content bei Gütsel Online …

 

Fatal error: Uncaught TypeError: mysqli_num_rows(): Argument #1 ($result) must be of type mysqli_result, bool given in /pages/75/c9/d0016151/home/htdocs/domain-auf-schluer/include/content-browser.inc:249 Stack trace: #0 /pages/75/c9/d0016151/home/htdocs/domain-auf-schluer/include/content-browser.inc(249): mysqli_num_rows(false) #1 /pages/75/c9/d0016151/home/htdocs/domain-auf-schluer/index.php(986): include('/pages/75/c9/d0...') #2 {main} thrown in /pages/75/c9/d0016151/home/htdocs/domain-auf-schluer/include/content-browser.inc on line 249