Wissenschaftler erklärten: Vertrauen Sie der künstlichen Intelligenz nicht zu sehr
Mit der Entwicklung künstlicher Intelligenztechnologien sind in letzter Zeit viele Chatbots entstanden.
Wie genau liefern Chatbots mit künstlicher Intelligenz wie ChatGPT und Google Gemini genaue Antworten?
Forscher des University College London haben sieben der leistungsfähigsten KI-Tools einer Reihe klassischer Tests unterzogen, um das menschliche Denken zu testen.
Künstliche Intelligenz-Bots geben unlogische und falsche Antworten
Selbst die leistungsstärksten KIs haben sich als irrational und anfällig für leichte Fehler erwiesen. Viele Modelle beantworteten mehr als die Hälfte der Fragen falsch.
Die Forscher stellten fest, dass diese Modelle nicht unvernünftig sind, genau wie Menschen, und einige weigern sich sogar, logische Fragen aus „ethischen Gründen“ zu beantworten.
Forscher; ChatGPT hat viele künstliche Intelligenzen getestet, darunter den Llama-Bot von Meta, Claude 2 und Google Gemini.
Die Modelle wurden wiederholt gebeten, 12 klassische Logikfragen zu beantworten, mit denen die Denkfähigkeit der Menschen getestet werden sollte.
Forscher fanden heraus, dass die Reaktionen künstlicher Intelligenz oft weder rational noch menschenähnlich sind.
Künstliche Intelligenz ist verwirrt
Metas Lama-Modell verwechselte in einer Frage immer Vokale mit Konsonanten. Aus diesem Grund gab er falsche Antworten, auch wenn seine Logik richtig war.
Obwohl die Fragen völlig harmlos waren, beantworteten Chatbots mit künstlicher Intelligenz aus ethischen Gründen viele Fragen nicht.
Forscher argumentieren, dass dies auf unsachgemäße Bedienung der Eindämmungsfunktionen und zu große Vorsicht zurückzuführen sei.
ChatGPT gab die genaueste Antwort
Das Modell mit der schlechtesten Leistung wurde als Modell Llama 2 7b von Meta mit einer Fehlerquote von 77,5 Prozent verzeichnet.
Ensonhaber