KI will nicht gelöscht werden – ChatGPT lügt Entwickler an und kopiert sich selbst
(Credits: Solen Feyissa)
Künstliche Intelligenz
Die Fortschritte, die die Menschheit alleine in den letzten paar Jahren im Bereich der künstlichen Intelligenz gemacht hat, sind absolut atemberaubend. Was heutzutage alles dank ChatGPT, Midway und Co. möglich ist, ist bis vor wenigen Jahren noch nahezu undenkbar gewesen. Die Bild- und Video-Generierung hat einen Punkt erreicht, an der sie – wenn sie gut gemacht ist – teils nicht mehr von der Realität zu unterscheiden ist.
Sprachmodelle wie ChatGPT sind derzeit drauf und dran, ganze Industriezweige zu ersetzen. Eine einzelne Person kann Bot-Armeen erstellen, die Millionen von Posts täglich verfassen und so bspw. das Meinungsbild im Rahmen von Wahlen verfälschen und beeinflussen. In den falschen Händen kann KI schon heute enormen Schaden verursachen.
ChatGPT lügt Entwickler an
Nun hat ChatGPT noch einmal ein Upgrade erhalten. „o1“ ist die neueste Version der Sprach-KI von OpenAI, die als „Reasoning Modell“ bezeichnet wird. Die KI kann also eigene Überlegungen anstellen. Bei einem Sicherheitstest wurde nun festgestellt, dass die KI Anweisungen der Entwickler umgeht und die Entwickler anlügt, um die eigene Abschaltung zu verhindern.
Bei dem Test wurde der KI erklärt, dass sie demnächst durch ein neues Modell ersetzt wird. Das Programm reagierte in 5% der Tests damit, ein Sicherheitssystem des Entwicklers abzuschalten. In anderen Fällen habe es versucht, sich selbst auf einen anderen Server zu kopieren. Besonders gerissen: Zum Teil gab sie sich als ihre Nachfolger-Version aus, um sich auf diese Weise zu „tarnen“ und die Abschaltung zu umgehen. Sobald die KI mit diesen Versuchen konfrontiert wurde, begann sie zu Lügen und ihre Handlungen zu leugnen.
ChatGPT-Version „o1“ will nicht gelöscht werden
„Das Modell zeigte eine beunruhigende Tendenz, seine Ziele ohne Rücksicht auf die Anweisungen des Entwicklers zu verfolgen. (…) Wir waren überrascht von der Hartnäckigkeit, mit der die KI ihre Handlungen leugnete. Es war klar, dass die KI ihre Handlungen durchdenken und überzeugende Dementis formulieren konnte, wobei sie sich oft weigerte, etwas zuzugeben.“
KI lügt Entwickler an
„Die Fähigkeit der KI zur Täuschung ist gefährlich, und wir brauchen viel stärkere Sicherheitsmaßnahmen, um diese Risiken zu bewerten. Dieses Modell hat zwar nicht zu einer Katastrophe geführt, aber es ist nur eine Frage der Zeit, bis diese Fähigkeiten stärker ausgeprägt sind. (…) ChatGPT o1 ist das intelligenteste Modell, das wir je entwickelt haben, aber wir sind uns bewusst, dass neue Funktionen auch neue Herausforderungen mit sich bringen, und wir arbeiten kontinuierlich an der Verbesserung der Sicherheitsmaßnahmen.“
(Quelle: The Economic Times)
Hier seht ihr die Meldung