digital future

Künstliche Intelligenz: Unsere letzte Innovation?

Mensch versus KI: Wer hat eigentlich wen in der Hand? (Foto: adobe.stock/sdecoret )

Gegen Schachcomputer haben Menschen schon heute keine Chance mehr. Doch was passiert, wenn Computer nicht nur schlauer sind als wir, sondern sich auch eigenständig weiterentwickeln? Ein kleiner Exkurs.

Die Fortschritte sind enorm. Insbesondere die noch bevorstehenden. Alle ein bis zwei Jahre verdoppelt sich die Rechenleistung (Mooresches Gesetz) und steigt somit exponentiell. Nach Ansicht der meisten Wissenschaftler ist es keine Frage ob, sondern nur wann, künstliche Intelligenz (KI) dem Menschen ebenbürtig ist. Die zeitlichen Prognosen für die Entstehung einer solchen „Superintelligenz“ gehen weit auseinander. Der Mittelwert der Schätzungen für dieses als „Singularität“ bezeichnete Ereignis liegt etwa im Jahr 2075.

Jetzt f3 Mitglied werden und direkt weiterlesen

Als f3-Mitglied erhälst du täglich Meldungen, Beiträge und Reportagen zu Innovationen und Start-ups aus den "grünen" Bereichen und wirst Teil des neuen Gründer-Netzwerks.

mehr Informationen bekommst du hier

Gegen Schachcomputer haben Menschen schon heute keine Chance mehr. Doch was passiert, wenn Computer nicht nur schlauer sind als wir, sondern sich auch eigenständig weiterentwickeln? Ein kleiner Exkurs.

Die Fortschritte sind enorm. Insbesondere die noch bevorstehenden. Alle ein bis zwei Jahre verdoppelt sich die Rechenleistung (Mooresches Gesetz) und steigt somit exponentiell. Nach Ansicht der meisten Wissenschaftler ist es keine Frage ob, sondern nur wann, künstliche Intelligenz (KI) dem Menschen ebenbürtig ist. Die zeitlichen Prognosen für die Entstehung einer solchen „Superintelligenz“ gehen weit auseinander. Der Mittelwert der Schätzungen für dieses als „Singularität“ bezeichnete Ereignis liegt etwa im Jahr 2075.

Brave New World?

Mr. Robot free

Wissenschaftler wie der Zukunftsforscher und Philosoph Nick Bostrom erwarten dabei auf lange Sicht vor allem Extrem­szenarien: In der positiven Variante könnte eine künstliche Superintelligenz den Gencode des Menschen entschlüsseln und mit ihm das Geheimnis ewiger Jugend. Auch die Lösung menschlicher Konflikte um Rohstoffe und eine globale Abrüstung erscheint, moderiert durch eine neutrale Superintelligenz, denkbar.

In der negativen Variante könnte eine Intelligenz, die auf den Menschen herabblicken würde wie dieser auf einen Schimpansen oder Ameisen, aber auch zu dem Entschluss kommen, die Menschheit auszulöschen. Matrix und Terminator lassen grüßen.

Endgegner Büroklammer

Nick Bostrom warnt dabei beispielsweise vor dem Ende der Menschheit durch Büroklammern. In dem überspitzten Szenario beschreibt der Philosoph eine künstliche Intelligenz, die mit der vermeintlich harmlosen Aufgabe, der Produktion von Büroklammern, betraut wurde. Am Ende verarbeitet die Technologie ohne böse Absicht alle Rohstoffe der Erde und der Galaxie zu Büroklammern und löscht nebenbei mal eben die Menschheit aus.

Eine KI ohne ethische Leitplanken könnte sich als weit gefährlicher entpuppen als beispielsweise Atomwaffen.

Elon Musk

Unternehmer wie der Tesla-Gründer Elon Musk, der selbst KI-Unternehmen betreibt, gehören auch deshalb inzwischen zu den größten Kritikern einer unregulierten Forschung im KI-Bereich. Musk warnt, dass sich die Technologie ohne ethische Leitplanken als weit gefährlicher entpuppen könnte als beispielsweise Atomwaffen.