Künstliche Intelligenz – Die Schattenseiten der Zukunftstechnologie

/, News/Künstliche Intelligenz – Die Schattenseiten der Zukunftstechnologie

Künstliche Intelligenz – Die Schattenseiten der Zukunftstechnologie

Künstliche Intelligenz (KI) ist die Zukunftstechnologie für viele. Ob eine neue Technologie die Zukunft jedoch sicherer macht, ist noch nicht abzusehen. Die Organisierte Kriminalität (OK) versteht es teils besser als der Staat, das Potenzial neuer Technologien zu nutzen, wie die Beispiele Cybercrime, Onlinebetrug und DarkNet zeigen. Der Öffentliche Sektor hinkt bei neuen Technologien tendenziell hinterher. Die IISW sprach mit Herrn Prof. Klaus Mainzer (em.) von der TU München über die Schattenseiten der KI und über den Anpassungsbedarf verschiedener Rechtsgebiete.

Herr Professor Mainzer, was ist KI überhaupt und welche Ausprägungen gibt es?

Zunächst muss man verstehen, was mit KI gemeint ist. Es geht um „machine learning“, also darum, dass Maschinen selber aus Datensätzen lernen, die von Menschen trainiert werden. Dies ist vergleichbar mit dem Lernen des menschlichen Gehirns. Beim machine learning gibt es zunächst das überwachte Lernen. Neuronale Netze bekommen bspw. ein Bild oder Gesicht zum Trainieren. Das System ist daraufhin in der Lage, unter einer Vielzahl von Gesichtern das eine wieder zu erkennen. Das ist keine Zukunftsmusik, sondern bereits „state of the art“. Es hilft zum Beispiel bei der Fahndung nach Personen. Erstmals haben die Behörden dieses Verfahren bei der Suche nach den Boston-Bombern angewandt. Das FBI konnte die Täter schnell identifizieren.

Andere, neuere Verfahren sind das nicht-überwachte Lernen, das verstärkende Lernen sowie das vielversprechende „Deep Learning“. Die vom menschlichen Gehirn bekannte Synapsen-Vernetzung bildet man hier mit einem Rechenmodell ab. Die neurochemischen Signale des Gehirns entsprechen Zahlengewichten in diesem neuronalen Netzwerk. Dabei werden neuronale Schichten angenommen, vergleichbar mit dem Neocortex des menschlichen Gehirns. Doch während es beim menschlichen Gehirn nur vier Schichten sind, kann die Anzahl der Schichten eines neuronalen Netzwerkes erweitert werden. Derartige technische Mustererkennungen können dann effizienter sein als der Mensch.

Ob KI der Organisierten Kriminalität Vorteile verschafft, sei dahingestellt. Allgemein kann jede Technik in die eine und die andere Richtung genutzt werden. Ich will Ihnen ein Beispiel nennen: Die Blockchain-Technologie ist derzeit in aller Munde. Finanzielle Transaktionen über eine Blockchain sind total transparent – soweit so gut. In den verwendeten Codes können aber auch andere Informationen als Bankdaten versteckt werden. Zum Beispiel Zugänge zu Kinderpornographie. Die totale Transparenz, die die Blockchain auszeichnet, erweist sich hier als Bumerang. Jeder hat dann auf seinem Rechner eine Kopie von Kinderpornographie. Öffne ich den Code auch noch, komme ich in Teufels Küche. Dann habe ich Kinderpornographie auf meinem Rechner.

Damit ist klar: Wir befinden uns in einer steten Rüstungsspirale: Dabei agiert der Staat oftmals zu langsam. Die höhere Innovationsgeschwindigkeit, die wir aus der Wirtschaft und Forschung kennen, nimmt exponentiell zu. Verwaltung und Staat können mit dieser Geschwindigkeit oftmals nicht mithalten. Ein Grund sind beispielsweise die langwierigen Beschaffungsvorgänge. So können Forschung und Entwicklung im Öffentlichen Sektor nur schwerlich realisiert werden. Daher arbeiten einige Universitäten wie die Technische Universität München auch mit der Wirtschaft zusammen, um Drittmittel einzuwerben.

Wie kann denn ein Rechtsrahmen für Maschinen aussehen?

Betrachten Sie zunächst das nationale Recht. Hier würde ich mir wünschen, dass die Juristen das gesamte Rechtssystem, angefangen beim Grundgesetz über das Zivilrecht bis hin zum Strafrecht, systematisch durchforsten und prüfen, wo diese Rechtsgebiete für die Nutzung von Algorithmen angepasst werden müssen. Nehmen Sie die Frage der Autonomie im Grundgesetz: Der Mensch ist grundsätzlich frei und für seine Handlungen verantwortlich. Im Verkehrsrecht ist jeder Autofahrer für die von ihm verursachten Unfälle verantwortlich. Es gibt aber auch andere Stimmen im Robotik-Recht. Bei teilweise autonomen Fahrzeugen kann der Fahrer nicht mehr allein verantwortlich sein. Zunehmend müssten Unternehmen und Softwarefirmen in Regress genommen werden. Oder denken Sie an das Zivilrecht: Wenn Verhandlungs-Algorithmen bei Vertragsgestaltungen und Verkaufsverhandlungen mitspielen, müssen auch hier die Rahmenbedingungen neu gesetzt werden. Institutionen, die auf Öffentlichem Recht basieren, könnten sogar durch die Blockchain in Form einer dezentralen Datenbank ersetzt werden.

Beim Internationalen KI-Staatenrecht sehe ich jedoch sehr beschränkte Möglichkeiten zu agieren. So ist es noch nicht dazu gekommen, Drohnen als Kampfmittel weltweit zu ächten. Die USA und Israel haben kein Interesse daran, denn sie sind führend auf diesem Gebiet und wollen diese Waffen weiterentwickeln. In Deutschland können wir nur auf die Ächtung hoffen. Doch bei Kampfdrohnen spielen wir noch keine Rolle. Solche Rahmenverträge funktionieren ja auch bei anderen Waffengattungen wie den Atomwaffen nur eingeschränkt, obwohl sie erstrebenswert sind. Nein, einen internationalen KI-Rechtsrahmen sehe ich noch nicht. Das wird noch ein sehr schwieriger Weg.

Wo wir schon bei der militärischen Nutzung von KI sind. Die Grenzen sind heute fließend. Wir scheinen hier mit staatlichen Bestimmungen an Grenzen zu stoßen. So hat unlängst eine Hilfsorganisation das Entwickeln einer Drohne für das Mapping in Katastrophengebieten untersagt bekommen, da dies ein „Dual-use“-Produkt sei und damit potentiell militärisch nutzbares Produkt wäre.

„Dual use“ – das halte ich für eine ganz merkwürdige Begründung. Dann müssten auch Messer verboten werden. Ich kann es sowohl für eine OP als auch für eine Messerstecherei verwenden. Auch Drohnen sind zunächst keine Waffen. Sie helfen zum Beispiel bei der Kontrolle von Wildbestand, der Beobachtung geologischer Veränderungen oder der Überwachung vulkanischer Aktivitäten. Wir müssen rechtlich klar regeln, welcher Verwendungszweck opportun und gewünscht ist. Dabei müssen wir in der Lage sein, nicht nur ethische Normen anzuwenden, sondern geltendes Recht auch durchzusetzen. Aber man darf nicht über das Ziel hinausschießen. Man darf mit Regulierung nicht Innovation abwürgen. Ob KI gut oder böse ist, ist daher die falsche Debatte. KI ist auch nicht aufzuhalten. Wir müssen vielmehr aufpassen, dass uns die Geschichte nicht aus dem Ruder läuft und KI als Dienstleistung an der Gesellschaft garantiert ist.

Zur Person:

Prof. Mainzer (*1947) arbeitet als Wissenschaftsphilosoph über Grundlagen und Zukunftsperspektiven von Wissenschaft und Technik. Im Zentrum stehen dabei mathematische Grundlagenforschung und Computermodellierung von Wissenschaft und Technik. Bekannt wurde er als Komplexitätsforscher, der schwerpunktmäßig komplexe Systeme, Algorithmen und künstliche Intelligenz in Natur, Technik und Gesellschaft untersucht. Prof. Mainzer studierte Mathematik, Physik und Philosophie an der Universität Münster, wo er über Philosophie und Grundlagen der Mathematik promovierte und sich in Philosophie habilitierte. Seit 2016 ist er Emeritus of Excellence an der Technischen Universität München. Weitere Informationen zur Person finden Sie hier.

2018-09-18T16:02:44+00:006. August 2018|Digitale Sicherheit, News|