Direkt zum Inhalt

Kommentare - - Seite 1

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Wie die Moral in die Maschine kommt

    08.08.2017, Gerald Sobotta
    Es herrschen immer noch sehr seltsame Vorstellungen von robotischen Systemen. Da liegt ein Sensor-Aktor-System vor mit einem programmierten Computer mit Gedaechtnis. Und es kommt genau die Moral heraus, die vorher spezifiziert wurde und dann programmiert wurde. Von KI zu sprechen scheint manchmal zum Eindruck zu fuehren, die Maschine entwickelt da eine Art Moral an der Spezifikation vorbei. Gut, bei einem technisch fehlerhaftem Programm ist das moeglich, aber das ist ein anderes Thema. Dass unvollstaendig definierte Input-Output-Beziehungen fuer spezielle Inputdaten dann erstaunliche Ergebnisse liefern, ist ueberhaupt nicht auszuschliessen. Fuehrt man nun Rechtsprobleme auf Ursachen zurueck, dann gibt es also die Frage nach der Spezifikation (Was wollte man technisch umsetzen?) und die Frage nach besagten "Spezifikationsluecken ( Wo glaubte man schlampen zu koennen?). Man hat also Entscheidungen definiert und in Kauf genommen durch diverse Arten von Interpolationen ( neuronale Netze etc.) ohne Folgenueberpruefung fuer zahlreiche Inputs. -Und damit ist das Thema abgehakt. Der Computer selbst ist immer unschuldig, auch wenn ein Bit floppt. Das muss ein robuster Algorithmus abfangen koennen. Auch hier ist juristisch die Ursache des Versagens eben nicht die Computerpanne, sondern die Spezifikation und der Algorithmus, der vom perfekten Computer oder auch Sensor und Aktor ausgeht. Kausalitaet bleibt auch in der KI Kausalitaet. Wer Zufallsalgorithmen einbaut, muss fuer die Folgen eben den Kopf hinhalten. Die machen vielleicht im statistischen Mittel vielleicht alles optimal, koennen aber im Einzelfall voellig versagen, aber der zaehlt dann.
    In den Medien wird KI recht oft fast wie Zauberei dargestellt. Ist es aber nicht! Das ist Technik mit umgesetzter Mathematik. Das ist prinzipiell auch nachvollziehbar. Sogar die Fehler von Autopiloten sind durchaus nachvollziehbar. Pech etc. gibt es da nicht. Was nicht gut funktioniert, ist eben Fusch. -In Studien kann man auch unfertige Systeme testen, auf dem Markt haben sie nichts verloren. Systeme, die sich erst im operationellen Einsatz aufschlauen und eventuell sogar Moral entwickeln, sind noch nicht praxistauglich. -Man kann sich eigentlich ausrechnen, welche Arbeit dann in markttauglichen KI-Systemen steckt und welche Ausbildung und Qualifikation das erfordert. Da stoesst man leider sehr schnell auf ein Personalproblem, das noch gar nicht thematisiert wurde. Betriebssystemfehler kann man durch updates schrittweise eliminieren, aber Verkehrstote kriegt man durch updates der Autopiloten nicht aus ihren Graebern heraus.
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.