Wissenschaftler erklärten: Vertrauen Sie der künstlichen Intelligenz nicht zu sehr

0 4
Werbung

Mit der Entwicklung künstlicher Intelligenztechnologien sind in letzter Zeit viele Chatbots entstanden.

Wie genau liefern Chatbots mit künstlicher Intelligenz wie ChatGPT und Google Gemini genaue Antworten?

Forscher des University College London haben sieben der leistungsfähigsten KI-Tools einer Reihe klassischer Tests unterzogen, um das menschliche Denken zu testen.

Künstliche Intelligenz-Bots geben unlogische und falsche Antworten

Selbst die leistungsstärksten KIs haben sich als irrational und anfällig für leichte Fehler erwiesen. Viele Modelle beantworteten mehr als die Hälfte der Fragen falsch.

Die Forscher stellten fest, dass diese Modelle nicht unvernünftig sind, genau wie Menschen, und einige weigern sich sogar, logische Fragen aus „ethischen Gründen“ zu beantworten.

Forscher; ChatGPT hat viele künstliche Intelligenzen getestet, darunter den Llama-Bot von Meta, Claude 2 und Google Gemini.

Die Modelle wurden wiederholt gebeten, 12 klassische Logikfragen zu beantworten, mit denen die Denkfähigkeit der Menschen getestet werden sollte.

Forscher fanden heraus, dass die Reaktionen künstlicher Intelligenz oft weder rational noch menschenähnlich sind.

Künstliche Intelligenz ist verwirrt

Metas Lama-Modell verwechselte in einer Frage immer Vokale mit Konsonanten. Aus diesem Grund gab er falsche Antworten, auch wenn seine Logik richtig war.

Obwohl die Fragen völlig harmlos waren, beantworteten Chatbots mit künstlicher Intelligenz aus ethischen Gründen viele Fragen nicht.

Forscher argumentieren, dass dies auf unsachgemäße Bedienung der Eindämmungsfunktionen und zu große Vorsicht zurückzuführen sei.

ChatGPT gab die genaueste Antwort

Das Modell mit der schlechtesten Leistung wurde als Modell Llama 2 7b von Meta mit einer Fehlerquote von 77,5 Prozent verzeichnet.

Ensonhaber

Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More