Ein führender Forscher für künstliche Intelligenz, der von einigen als „Pate“ der KI bezeichnet wird, sagt, dass sich die Technologie mit einer „beängstigenden“ Geschwindigkeit entwickelt und warnt davor, dass sie sich nicht über unsere Fähigkeit hinaus ausdehnen sollte, sie zu kontrollieren. Er schließt sich der Stimme vieler Führer an, darunter Papst Franziskus, die sicherstellen wollen, dass ethische Bedenken in die Grundlage der Technologie „eingebaut“ werden.
Geoffrey Hinton, ein langjähriger Forscher bei Google, der im Alter von 75 Jahren in den Ruhestand getreten ist, hat sich denen angeschlossen, die sagen, dass die potenziellen Gefahren der neuen Technologie eine genaue Prüfung verdienen.
Software wie das Chatbot-System GPT-4, das vom Start-up OpenAI aus San Francisco entwickelt wurde, „stellt eine Person in der Menge an Allgemeinwissen, die sie hat, in den Schatten und sie bei weitem in den Schatten“, sagte Hinton gegenüber BBC News. „In Bezug auf die Argumentation ist es nicht so gut, aber es macht bereits einfache Argumente.“
„Und angesichts der Geschwindigkeit des Fortschritts erwarten wir, dass sich die Dinge ziemlich schnell verbessern werden. Also müssen wir uns darüber Sorgen machen“, sagte er.
GPT-4 ist ein großes Lernmodell, das auf enormen Datenmengen und historischen und zeitgenössischen Texten basiert, die von menschlichen Autoren geschrieben wurden. Es kann selbst Text produzieren und Blogbeiträge, Gedichte und Computerprogramme generieren. Es kann sich an menschenähnlichen Gesprächen beteiligen und Antworten auf Fragen geben, berichtete die New York Times. Diese Systeme befinden sich jedoch noch in einem frühen Entwicklungsstadium und weisen verschiedene Mängel auf: Obwohl GPT-4 selbstbewusst spricht, stellt es falsche Informationen als Tatsachen dar und erfindet Informationen in Vorfällen, die Forscher als „Halluzinationen“ bezeichnen.
Ähnliche Systeme können überzeugende Bilder und Videos im audio- und fotorealistischen Stil erzeugen, die manchmal echten Menschen nachempfunden sind.
Gegenwärtig fehlt es diesen frühen Versionen der künstlichen Intelligenz an Selbstbewusstsein. Es wird darüber diskutiert, ob Selbsterkenntnis für eine digitale Schöpfung überhaupt möglich ist.
Hinton, der heute in Kanada lebt, war ein Pionier bei der Entwicklung und dem Design von „neuronalen Netzen“, der Art von Programmierinfrastruktur, die Computern hilft, neue Fähigkeiten und Formen der Analyse zu erlernen. Es wird in vielen KI-Systemen verwendet. Er und zwei Mitarbeiter gewannen 2018 die höchste Auszeichnung der Informatik, den Turing Award.
In Hintons Analyse unterscheiden sich diese KI-Systeme in der Entwicklung stark von der Software, die die Menschen gewohnt sind.
„Ich bin zu dem Schluss gekommen, dass sich die Art von Intelligenz, die wir entwickeln, sehr von der Intelligenz unterscheidet, die wir haben“, sagte er. Im Gegensatz zu biologischen Intelligenzen wie dem Menschen kann es viele Kopien derselben digitalen Systeme mit denselben Weltmodellen geben. Obwohl sie separat lernen können, teilen sie ihr Wissen „sofort“.
„Es ist also so, als hätte man 10.000 Leute und wenn eine Person etwas gelernt hat, wusste es automatisch jeder. Und so können diese Chatbots so viel mehr wissen als jede einzelne Person“, sagte Hinton.
Für Hinton ist ein „Worst-Case“- oder „Albtraum“-Szenario, wenn ein Roboter entwickelt wird und die Fähigkeit erhält, seine eigenen Unterziele zu erstellen, und dann entscheidet, dass sein Ziel die Maximierung seiner eigenen Leistung sein sollte.
Was sind die Risiken von künstlicher Intelligenz?
Andere Forscher haben Bedenken geäußert, dass diese KI-Systeme kurz-, mittel- und langfristig Risiken bergen. Zu den anfänglichen Gefahren gehört, dass Menschen fälschlicherweise effektiveren und überzeugenderen Desinformationen vertrauen, einschließlich falscher Informationen, die von einer KI überzeugend präsentiert werden. Hoaxer und Kriminelle können gefälschte Telefonanrufe erstellen, die die Stimme eines Verwandten imitieren, der behauptet, in Gefahr zu sein und schnell Geld zu benötigen.
Papst Franziskus war kürzlich Gegenstand eines weit verbreiteten gefälschten computergenerierten Fotos. Ein Bild des Papstes in einem stilvollen weißen Daunenmantel wurde auf Social-Media-Sites viral, und viele Leute schienen das falsche Foto mit einem authentischen Schnappschuss zu verwechseln.
Wenn KI erfolgreich mehr Aufgaben automatisiert, die derzeit von Menschen erledigt werden, könnte Arbeitslosigkeit zu einem Problem werden, befürchten einige. Internet-Content-Moderatoren, Rechtsanwaltsfachangestellte, persönliche Assistenten und Übersetzer könnten ihre Jobs unter Druck gesetzt oder ersetzt sehen, berichtete die New York Times.
Langfristige Risiken, wie KI-Systeme, die sich der menschlichen Kontrolle entziehen und sogar die Menschheit zerstören, sind seit langem ein fester Bestandteil der Science-Fiction. Einige Experten verweisen auf das unerwartete Verhalten von KI-Systemen, die derzeit entwickelt werden. Wenn KI-Systeme mit anderen Internetdiensten vernetzt werden und so leistungsfähig werden, dass sie ihren eigenen Code schreiben können, um sich selbst zu modifizieren, könnte eine außer Kontrolle geratene KI zu einer echten Gefahr werden.
Papst Franziskus, andere Katholiken melden sich zu Wort
Papst Franziskus hat gesagt, dass Wissenschaft und Technologie praktische Vorteile haben und ein Beweis für die Fähigkeit des Menschen sind, „verantwortungsvoll am schöpferischen Handeln Gottes teilzunehmen“.
„Aus dieser Perspektive“, sagte der Papst bei einer Audienz im Vatikan am 27. März, „bin ich überzeugt, dass die Entwicklung der künstlichen Intelligenz und des maschinellen Lernens das Potenzial hat, einen positiven Beitrag zur Zukunft der Menschheit zu leisten; Wir können es nicht abtun.“
„Gleichzeitig bin ich sicher, dass dieses Potenzial nur ausgeschöpft werden kann, wenn sich diejenigen, die diese Technologien entwickeln, ständig und konsequent dazu verpflichten, ethisch und verantwortungsbewusst zu handeln“, sagte er.
Die Bemerkungen kamen bei einer vatikanischen Audienz mit Teilnehmern der Minerva-Dialoge, einer auf digitale Technologien ausgerichteten Versammlung von Wissenschaftlern, Ingenieuren, Wirtschaftsführern, Anwälten, Philosophen, katholischen Theologen, Ethikern und Mitgliedern der Römischen Kurie.
Der Papst ermutigte diese Führer, „die intrinsische Würde jedes Mannes und jeder Frau zum Schlüsselkriterium“ bei der Bewertung neuer Technologien zu machen.
Papst Franziskus sagte, er begrüße die Regulierung der künstlichen Intelligenz, damit sie zu einer besseren Welt beitragen könne. Er sagte auch, er sei beruhigt zu wissen, dass viele Menschen, die an neuen Technologien arbeiten, die Ethik, das Gemeinwohl und die menschliche Person in den Mittelpunkt stellen. Er betonte seine Besorgnis darüber, dass digitale Technologien die Ungleichheit in der Welt verstärken und die menschliche Person auf das reduzieren, was technologisch erkannt werden kann.
Der Papst betonte: „Der fundamentale Wert eines Menschen kann nicht allein an Daten gemessen werden.“ Soziale und wirtschaftliche Entscheidungen sollten „vorsichtig“ sein, wenn es darum geht, ihre Urteile an Algorithmen und die Verarbeitung von Daten über die Zusammensetzung und das frühere Verhalten einer Person zu delegieren.
„Wir können nicht zulassen, dass Algorithmen die Achtung der Menschenwürde einschränken oder konditionieren oder Mitgefühl, Barmherzigkeit, Vergebung und vor allem die Hoffnung ausschließen, dass sich die Menschen ändern können“, sagte er.
Bei der Vollversammlung der Päpstlichen Akademie für das Leben im Jahr 2020 unterzeichneten die Mitglieder der Akademie gemeinsam mit den Präsidenten von IBM und Microsoft ein Dokument, in dem der ethische und verantwortungsvolle Umgang mit Technologien der künstlichen Intelligenz gefordert wird. Das Dokument konzentrierte sich auf die Ethik von Algorithmen und den ethischen Einsatz künstlicher Intelligenz nach den Grundsätzen der Transparenz, Inklusion, Verantwortung, Unparteilichkeit, Zuverlässigkeit, Sicherheit und Privatsphäre.
Quelle: NCR