KI, Befürchtungen und Gefahren

Hätten Sie es gewusst? Der Ernstfall ist schon vor gut drei Jahren eingetreten. Eine KI hat einen Menschen getötet – auf eigene Veranlassung. Dies 2020 geschah in einem Kampfgebiet in Libyen.

Laut einem UN-Expertengremium soll ein Kargu-2-Quadcopter des türkischen Rüstungskonzerns STM in Libyen einen flüchtenden Soldaten angegriffen haben – ohne menschlichen Befehl. Quelle: anfdeutsch.com

Das und mehr ist auch Thema im neuen Mythen Metzger Video. Nach der Aufregung um diesen Fall hätten gut 20 Nationen die Drohnen des türkischen Herstellers bestellt.


Bitte unterstützen Sie unsere Arbeit


Anleitung für Hobbyautoren zum Durchbruch in der Medienwelt >>>

LFS-HOME

SICHERHEIT IM HANDUMDREHEN – Entdecken Sie die Weltneuheit STOP Defend and Send, Ihr sofort einsatzbereites Selbstverteidigungsgerät! Der entscheidende Vorteil: Es ist keine zweite Hand nötig, um den Alarmknopf zu bedienen.

Hier mehr erfahren


 


Kommentare

2 Antworten zu „KI, Befürchtungen und Gefahren“

  1. Ralf.Michael

    Meine Frage : Hat sich der Kargu-2-Quadcopter anschliessend freiwillig der Militärjustiz
    gestellt ? Wurde gegen die – KI – ein Verfahren eröffnet ?. Wurde von dem türkischen Rüstungskonzern STM schon Protokolle veröffentlicht ? Fragen über Fragen….

    4
    1
  2. Rex Cramer

    Das war keine KI, sondern einfach ein Automat, der auf Basis einer programmierten Mustererkennung gehandelt hat. Das Problem liegt darin, den Automaten überhaupt autonom handeln zu lassen.

    Dasselbe Problem gab es auch schon mit “Big Data”. Der feine Unterschied war in der Regel lediglich, das noch ein menschlicher Entscheider die ” Vorschläge” des Computers gecheckt hat. Die Tötungslisten der CIA für “extralegale Tötungen” entstehen genau so. Man könnte aber die Listen auch ohne vorige Sichtung einfach abarbeiten – dann hätte nach Logik des Artikels eine KI Morde entschieden, obwohl gar keine beteiligt war.

    Es gibt keine KI ! Es gibt lediglich Automaten, die Intelligenz nach verschiedenen Methoden durch Nachahmung vortäuschen. Und skrupellose Menschen, die diese Automaten nach Mustern entscheiden lassen. Diese Entscheidungsdelegierung an Automaten ist das wirkliche Problem, und nicht, wie “intelligent” der Automat ist.