Die Luftwaffe möchte, dass Sie Robotern vertrauen – sollten Sie?

Ein britischer Kampfjet kehrte nach einer Mission am dritten Tag des Irak-Krieges 2003 zu seiner Basis in Kuwait zurück, als ein US-Raketenabwehrsystem ihn entdeckte, als feindliche Rakete identifizierte und feuerte. Die beiden Männer im Flugzeug wurden beide getötet. Eineinhalb Wochen später machte dasselbe System – der gepriesene Patriot – denselben Fehler. Diesmal wurde ein amerikanisches Flugzeug abgeschossen und ein amerikanischer Pilot getötet.

Die Raketenbatterie, die auf die beiden Jets zielte, war fast vollständig automatisiert. Es waren Leute da, die darüber wachten, aber sie haben sich der Analyse der Maschine zugewandt, und diese freundlichen Brandtoten waren das Ergebnis. Ein Jahrzehnt später ist das dem Problem zugrunde liegende Problem nicht behoben. In der Tat wird es immer dringlicher, wenn sich das Militär immer mehr auf die Automatisierung verlässt und riesige Geldsummen für die Erforschung und Entwicklung künstlicher Intelligenz ausgibt. Zukünftig könnte dies auch autonome Waffensysteme umfassen, eines der umstrittensten Gebiete der künstlichen Intelligenz.

Heather Roff, Professorin an der Universität von Colorado, die Ethik und Militärtechnologie studiert, sagt, dass diese freundlichen Brandereignisse das hervorheben, was Experten als Automatisierungsbias bezeichnen. “Es gibt einen Popup-Bildschirm mit der Aufschrift: Wenn Sie keine Maßnahmen ergreifen, werde ich feuern”, sagt Roff. Die menschlichen Bediener ergriffen in dem kleinen Zeitfenster, in dem sie das Abfeuern der Waffe verhinderten, keine Maßnahmen und taten dies nicht.

Die Automatisierung geht über die Auswahl der zu tötenden Ziele hinaus. Eine Luftwaffeneinheit namens Human Trust and Interaction Branch von der Wright-Patterson Air Force Base in der Nähe von Dayton, Ohio, untersucht, wie Menschen und Maschinen interagieren, um neue Formen von Aufklärungs- und Informationserfassungswerkzeugen zu entwickeln.

Dies steht nicht im Namen des Zweigs, aber die „Interaktion“, die die Einheit untersucht, besteht – zumindest teilweise – zwischen Menschen und Robotern. Diese Forschung ist eines der vielen Projekte des Militärs, die darauf abzielen, neue Arten der Automatisierung zu entwickeln und die Robotik in die Zukunft zu treiben. Eine kürzlich veröffentlichte Vorabwerbung für Regierungsverträge mit dem Titel “Vertrauen in Autonomie für Mensch-Maschine-Teaming” gibt einen Einblick, wie diese Zukunft aussehen könnte.

“Die Luftwaffe hat Mensch-Maschine-Teaming als primären Forschungsschub vorgeschlagen”, heißt es in der Veröffentlichung. “Um diese ehrgeizige Vision zu erreichen, müssen wir jedoch untersuchen, wie die sozio-emotionalen Elemente der zwischenmenschlichen Team- / Vertrauensdynamik genutzt und in Mensch-Roboter-Teams integriert werden können.” Die Luftwaffe, die sagt, dass diese Forschung notwendig ist, um “ein gemeinsames Bewusstsein und eine gemeinsame Absicht zwischen Mensch und Maschine” zu entwickeln, schätzt, dass der Auftrag 7,5 Millionen US-Dollar betragen wird.

Daryl Mayer, ein Sprecher der Luftwaffe, erklärt Vocativ, dass sich ihre Arbeit darauf konzentriert, wie Menschen Maschinen benutzen. „Unsere Forschung konzentriert sich auf den Prozess der Vertrauenskalibrierung. Statt sich einfach auf mehr Vertrauen zu konzentrieren, konzentrieren wir uns auf angemessenes Vertrauen. Das heißt, wir forschen, um zu verstehen, wann Menschen Technologie angemessen einsetzen und wann nicht“, sagt Mayer .

Die Art der Sprache, die in der Vertragsanfrage verwendet wird – “sozio-emotional”, “gemeinsames Bewusstsein”, “gemeinsame Absicht” -, ist eine nicht hilfreiche Methode, um darüber nachzudenken, wie Menschen mit Maschinen interagieren, argumentiert Noel Sharkey, Professor für künstliche Intelligenz und Robotik an der Universität von Sheffield. “Wann haben Maschinen Absicht und Bewusstsein bekommen – habe ich 100 Jahre geschlafen oder was?” Sharkey fragt in einer E-Mail an Vocativ.

Laut Sharkey vertrauen die Leute Maschinen bereits zu sehr und spiegeln Roffs Bedenken hinsichtlich der Automatisierungsverzerrung wider: Das heißt, wenn die Maschine etwas sagt, muss es korrekt sein. „Die Menschen müssen Maschinen weniger vertrauen. Eines der größten Probleme mit Militärpersonal (oder irgendjemandem) sind verschiedene Arten von Automatisierungsverzerrungen “, sagt Sharkey. “Für militärische Zwecke brauchen wir also viel mehr Forschung darüber, wie der Mensch die absichtliche Kontrolle (insbesondere über Waffen) behalten und nicht nur in die Falle vertrauender Maschinen geraten kann.”

Die Automatisierung geht weit über das Schlachtfeld hinaus und hat manchmal tiefgreifende Auswirkungen. Peter Asaro, ein Philosoph, der künstliche Intelligenz studiert, sagt, dass Fragen gestellt werden müssen, wie und wann Menschen in ihrem täglichen Leben die Kontrolle auf Maschinen übertragen.

Asaro verweist auf selbstfahrende Autos als perfektes Beispiel für diese Spannung. „Vermutlich fährt das Auto selbst, damit die Person hinter dem Lenkrad sich auf etwas anderes konzentrieren kann: E-Mail, Unterhaltung, ein Nickerchen usw. Wie und wann sollte das Auto die Person darüber informieren, dass sie sich in einer kritischen Situation befindet, und das Auto Sie können nicht selbst herausfinden, was zu tun ist? “ er fragt. „Sollte es sie kurz vor einem Unfall aus einem Nickerchen wecken oder einfach versuchen, sein Bestes zu geben? Und was ist, wenn jemand gerade aus einem Nickerchen aufgewacht ist und einen Lastwagen auf der Gegenfahrbahn sieht, der keine Bedrohung darstellt, aber die natürliche Reaktion der Person darin besteht, gewaltsam abzuweichen? Sollte das Auto ihnen erlauben, die automatische Steuerung zu übersteuern, wenn dies eine Gefahr darstellt? “

Es gibt auch Hinweise darauf, dass Menschen manchmal haustierähnliche Bindungen an ihre Roboter bilden. Eins Studie fand das Einige Soldaten, die Sprengstoffentsorgungsroboter verwendeten, „bildeten eine so starke Bindung zu ihren Sprengstoffentsorgungsrobotern, dass sie darauf bestehen, denselben Roboter nach der Reparatur zurückzubekommen, oder traurig werden, wenn ihr beschädigter Roboter nicht repariert werden kann.“ Ein anderer berichtete, dass einige Roomba-Besitzer vor dem Einschalten des Roboters aufgeräumt hätten, um „ein Zeichen ihrer Wertschätzung für die harte Reinigungsarbeit“ zu sein, die Roomba tat.

Einige Experten argumentieren, dass die Fähigkeit eines Roboters, Menschen zu täuschen, am Horizont steht. Asaro macht sich keine Sorgen um Lügenroboter, aber er merkt an, dass Roboter möglicherweise Menschen dazu bringen können, etwas zu tun, was sie nicht wollen, einschließlich vielleicht Dinge, die viele Menschen als positiv ansehen würden, wie zum Beispiel ältere Menschen dazu zu bringen nimm die benötigten Medikamente.

“Wir sind wahrscheinlich weit von Robotern entfernt, die Menschen dazu verleiten könnten, Dinge zu tun, die gut für sie sind. Sie würden viel bessere Fähigkeiten benötigen, um soziale Hinweise zu lesen, soziale Hinweise zu verwenden sowie menschliche Wünsche und Anreize zu entschlüsseln und zu manipulieren”, so Asaro sagt. Aber er merkt an: “Es könnte natürlich alle möglichen schändlichen Computer und Roboter geben, die Menschen manipulieren, um beispielsweise ihre Kreditkarteninformationen zu erhalten und so weiter.” Es könnte auch etwas geben, das er als “subtile Manipulationen wie Produktplatzierungen oder In-App-Käufe” beschreibt.

“Zum Beispiel”, sagt er, “wenn Sie Wein auf Ihren Teppich verschütten und Ihr Hausreinigungsroboter bestimmte Produkte zur Reinigung empfiehlt, liegt dies daran, dass dies die beste Reinigungsmethode ist oder an einer kommerziellen Vereinbarung zwischen dem Roboter liegt.” Hersteller und der Hersteller von Teppichfleckentfernern? Benötigen wir in solchen Fällen Transparenz über solche Vereinbarungen? “

Das Hauptproblem für Roff, den Professor an der Universität von Colorado, ist, dass sich die Menschen daran erinnern müssen, was sie von Robotern unterscheidet. “Ich finde Technologie großartig”, sagt sie. “Aber wir müssen bewacht werden, um selbst keine Automaten zu sein.”

Dieser Artikel wurde mit Genehmigung von reproduziert Vocativ (© Vocativ). Der Artikel war erstmals veröffentlicht am 24. August 2015.

.

Leave a Reply

Your email address will not be published. Required fields are marked *