Lade Inhalte...
  • NEWSLETTER
  • ABO / EPAPER
  • Lade Login-Box ...
    Anmeldung
    Bitte E-Mail-Adresse eingeben
    Bitte geben Sie Ihre E-Mail-Adresse oder Ihren nachrichten.at Benutzernamen ein.

gemerkt
merken
teilen

Forscher erschufen psychopathische künstliche Intelligenz

Von nachrichten.at/apa, 12. Juni 2018, 12:57 Uhr
Höchstpreise für Künstliche Intelligenz
(Symbolbild) Bild: iStock

SAN FRANCISCO. Sie sieht Mord und Totschlag überall: US-Forscher haben die erste psychopathische künstliche Intelligenz vorgestellt.

Der Algorithmus namens "Norman", benannt nach Alfred Hitchcocks Filmfigur Norman Bates, wurde von Wissenschaftern am renommierten Massachusetts Institute of Technology (MIT) geschaffen.

Er sei ein Beispiel dafür, was passiere, wenn künstliche Intelligenz mit einseitigen Infos gefüttert werde, erklärten die Forscher. Mit "Norman" wollen sie auf Gefahren hinweisen.

Für das Experiment versorgte das Forscherteam die künstliche Intelligenz ausschließlich mit Inhalten, in denen es um sterbende Menschen geht. Sie bedienten sich aus Beiträgen im Netzwerk Reddit. Anschließend zeigten sie "Norman" eine Reihe von Tintenklecks-Bildern, angelehnt an den psychodiagnostischen Rorschachtest. Die Antworten ihres Psychopathen, was wohl darauf zu sehen sei, verglichen die MIT-Forscher mit denen einer anderen künstlichen Intelligenz, die "normal" geschaffen wurde.

Die Ergebnisse sind furchteinflößend: Während der "gesunde" Algorithmus auf einem Bild "Menschen, die eng beieinanderstehen" sah, antwortete "Norman": "Ein Mann, der aus dem Fenster springt." Einen anderen Tintenklecks identifizierte die künstliche Intelligenz als "Person mit einem Regenschirm", während "Norman" darin einen Mann sah, "der von seiner schreienden Frau erschossen wird". Der psychopathische Algorithmus entdeckte außerdem Menschen, die durch einen Stromschlag getötet, überfahren oder in eine Teigmaschine gezogen werden - während die andere künstliche Intelligenz Vögel und eine Hochzeitstorte erkannte.

Beim maschinellen Lernen seien die Daten, mit denen die Maschine gefüttert werde, von zentraler Bedeutung, sie könnten "ihr Verhalten signifikant beeinflussen", fassen die Forscher ihr Experiment zusammen. Ihr Ziel ist es, auf die Gefahren bei künstlicher Intelligenz hinzuweisen und das Bewusstsein dafür zu schärfen.

Wenn ein Algorithmus als ungerecht oder voreingenommen wahrgenommen werde, sei der Übeltäter oftmals nicht die künstliche Intelligenz selbst, sondern die Daten, mit denen sie gefüttert wurde, erklärten die MIT-Forscher. Auf der Internetseite norman-ai.mit.edu haben sie "Normans" Antworten zusammengetragen. Dort bitten sie Nutzer, den Test selbst zu machen und ihre Antworten einzusenden - damit "Norman" repariert werden kann.

 

mehr aus Weltspiegel

Immer mehr Hitzetote: "Dutzende Arbeiter verlieren unnötig ihr Leben"

Vom Herd in die Haft - Deutscher Starkoch Alfons Schuhbeck wird 75

Protest in Österreich gegen Todesurteil für iranischen Rapper

"Wir leben nur durch einen Zufall": Hunderte Bomben im alten Flughafen von Athen entschärft

Lädt

info Mit dem Klick auf das Icon fügen Sie das Schlagwort zu Ihren Themen hinzu.

info Mit dem Klick auf das Icon öffnen Sie Ihre "meine Themen" Seite. Sie haben von 15 Schlagworten gespeichert und müssten Schlagworte entfernen.

info Mit dem Klick auf das Icon entfernen Sie das Schlagwort aus Ihren Themen.

Fügen Sie das Thema zu Ihren Themen hinzu.

2  Kommentare
2  Kommentare
Neueste zuerst Älteste zuerst Beste Bewertung
( Kommentare)
am 12.06.2018 18:47

Wir haben hier scheinbar etliche psychopathische künstliche Intelligenzen im Forum. ):

lädt ...
melden
antworten
oberoesi (1.100 Kommentare)
am 12.06.2018 16:03

Das menschliche Gehirn funktioniert recht ähnlich. Digitale "Gehirne" werden nun mal von menschlichen Gehirnen erschaffen. Oh Wunder, was für eine Ähnlichkeit! zwinkern

lädt ...
melden
antworten
Aktuelle Meldungen