Warnung an seine Mitarbeiter aus der Europäischen Union: Setzen Sie keine künstliche Intelligenz ein
Anwendungen der künstlichen Intelligenz, die sich rasant weiterentwickeln und ihren Einsatzbereich erweitern, stoßen in Europa auf Besorgnis.
Der Ausschuss der Europäischen Union (EU) warnte seine Mitarbeiter im Schatten dieser Befürchtungen.
Die Mitarbeiter wurden gebeten, für kritische Aufgaben keine Chatbots mit künstlicher Intelligenz wie ChatGPT zu verwenden.
Schritt gegen Technologien der künstlichen Intelligenz
Den Nachrichten der Website Politico zufolge hat der EU-Ausschuss neue Regeln vorbereitet, die den Einsatz verschiedener Technologien der künstlichen Intelligenz einschränken, wie etwa ChatGPT und Bard, den Chatbot, dessen Einsatzgebiet in der letzten Zeit weit verbreitet ist.
Die neuen Regeln sollen die Mitarbeiter über die Risiken und Grenzen von Online-KI-Tools und deren ordnungsgemäßen Einsatz bei der Arbeit des Ausschusses informieren.
Nicht öffentliche Informationen werden nicht weitergegeben
In diesem Rahmen werden nicht öffentliche Informationen bei der Nutzung des Tools für künstliche Intelligenz nicht weitergegeben oder offengelegt.
Wir sind uns der Tatsache bewusst, dass die Antworten der künstlichen Intelligenz falsch oder voreingenommen sein können. Auch die Frage, ob künstliche Intelligenz geistige Eigentumsrechte verletzt, wird berücksichtigt.
Durch künstliche Intelligenz generierte Informationen werden niemals kopiert und in offizielle Dokumente eingefügt. Insbesondere bei der Arbeit an kritischen und sensiblen Prozessen werden keine Tools der künstlichen Intelligenz eingesetzt.
Debatte über künstliche Intelligenz in Europa
Zwar gibt es in der EU zwar keine Regelung zu Systemen der künstlichen Intelligenz wie ChatGPT o.ä., aber der EU-Ausschuss hat bereits vor 2 Jahren den ersten Gesetzesvorschlag mit dem Rahmen für neue Regeln zur künstlichen Intelligenz ausgearbeitet und den Mitgliedsstaaten und der Europäischen Union vorgelegt Parlament (EP).
Mit diesem Vorschlag wurden einige Einschränkungen und Transparenzregeln für den Einsatz künstlicher Intelligenzsysteme eingeführt.
Im Vorschlag der Kommission wurden Systeme der künstlichen Intelligenz in vier Hauptgruppen eingeteilt: inakzeptables „Risiko“, „hohes Risiko“, „begrenztes Risiko“ und „minimales Risiko“.
Die Arbeit an dieser Regelung wird innerhalb der EU-Struktur fortgesetzt.
Nachricht