Lade Inhalte...
  • NEWSLETTER
  • ABO / EPAPER
  • Lade Login-Box ...
    Anmeldung
    Bitte E-Mail-Adresse eingeben
    Bitte geben Sie Ihre E-Mail-Adresse oder Ihren nachrichten.at Benutzernamen ein.

gemerkt
merken
teilen

Deutsche Psychologen warnen vor Einsatz von KI bei Lügenerkennung

Von nachrichten.at/apa, 04. Mai 2024, 10:26 Uhr

WÜRZBURG. Deutsche Fachleute warnen vor der Nutzung von Künstlicher Intelligenz (KI), um Lügen zu identifizieren.

Als Beispiele nennen die Psychologin Kristina Suchotzki von der Universität Marburg und Matthias Gamer von der Uni Würzburg in der Fachzeitschrift "Trends in Cognitive Sciences" etwa Befragungen von Einreisewilligen an EU-Grenzen oder von Verdächtigen in Kriminalfällen. Eine entsprechende Technik sei bereits an EU-Außengrenzen - in Griechenland, Lettland und Ungarn - erprobt worden, sagte Suchotzki der Deutschen Presse-Agentur unter Verweis auf das europäische Projekt für Grenzkontrollen iBorderCtrl. Generell nennen Suchotzki und Gamer verschiedene Probleme: KI's seien eine Black Box, deren Urteile von außen nicht nachvollziehbar und daher auch nicht überprüfbar seien. Zudem bestehe das Risiko falscher Ergebnisse, und es fehle ein theoretisches Fundament, heißt es.

Lesen Sie auch: Künstliche Intelligenz und die Politik (OÖNplus)

"Pinocchios Nase gibt es außerhalb von Büchern nicht"

"Dem Einsatz von künstlicher Intelligenz in der Lügendetektion liegt die Annahme zugrunde, dass es möglich ist, ein eindeutiges Indiz oder eine Kombination von Indizien zu identifizieren, die auf eine Täuschung hinweisen", wird Suchotzki in einer Mitteilung zur Studie zitiert. Dabei sei auch jahrzehntelange Forschung nicht in der Lage gewesen, solche Indizien zu identifizieren.

"Pinocchios Nase gibt es außerhalb von Büchern nicht", betont das Duo. Es gebe keine validen Verhaltenshinweise, anhand derer sich sicher unterscheiden lasse, ob jemand die Wahrheit sage oder nicht. Daher würden auch traditionelle Lügendetektoren, die den Wahrheitsgehalt von Aussagen aus körperlichen Reaktionen wie Blutdruck, Puls und Atmung ableiten wollen, längst als unwissenschaftlich gelten, betonen die Psychologen.

mehr aus Web

"Tut uns leid": Für diese iPad-Werbung muss sich Apple entschuldigen

OpenAI will Google Konkurrenz machen: ChatGPT-Macher arbeitet an KI-Suchmaschine

GTA 6: Genauer Zeitraum für Release steht fest

Manipulierte KI-Videos auf dem Vormarsch: So will YouTube dagegen vorgehen

Lädt

info Mit dem Klick auf das Icon fügen Sie das Schlagwort zu Ihren Themen hinzu.

info Mit dem Klick auf das Icon öffnen Sie Ihre "meine Themen" Seite. Sie haben von 15 Schlagworten gespeichert und müssten Schlagworte entfernen.

info Mit dem Klick auf das Icon entfernen Sie das Schlagwort aus Ihren Themen.

Fügen Sie das Thema zu Ihren Themen hinzu.

1  Kommentar
1  Kommentar
Neueste zuerst Älteste zuerst Beste Bewertung
Utopia (2.682 Kommentare)
am 04.05.2024 11:57

Die KI ist keine Intelligenz, auch keine künstliche. Es sind immer Menschen, die sich das ganze System ausdenken und der Computer kann immer nur das ausführen, was die Menschen sich zuvor ausgedacht haben. Der Computer kann alles viiiiiiiel schneller und kann viiiiiiiel mehr Daten verarbeiten. Er kann sie aber nur nach vorgedachten Regeln (= Programmen) verarbeiten.

Die Psychologen sollen nicht vor der Nutzung der KI zur Lügenerkennung warnen. Man kann nicht etwas nützen, was es gar nicht gibt.
Man kann natürlich behaupten, dass es das wäre, was man um viel Geld verkaufen möchte. Davor sollen die Psychologen warnen.

lädt ...
melden
antworten
Aktuelle Meldungen