Auf den Spuren der Künstlichen Intelligenz

ponedjeljak, 26. august 2024.

Denise Lachat

Anfang der 2000er Jahre hielt die Künstliche Intelligenz Einzug in unseren Alltag. Ihre Geschichte reicht jedoch bis in die 1950er Jahre zurück, als Wissenschaftler sich fragten, ob Maschinen wie Menschen denken und lernen können.

Vor gut zwanzig Jahren wurden Smartphones populär und führten Sprachassistenten wie Siri bei Apple und Google Assistant ein. Diese Assistenten nutzen Künstliche Intelligenz (KI), um unsere Sprachbefehle zu verstehen, unsere Fragen zu beantworten und uns bei unseren täglichen Aufgaben zu helfen.

Ausgangspunkt mit Alan Turing

Die Geschichte der künstlichen Intelligenz reicht jedoch viel weiter zurück. Bereits in den 1950er Jahren begannen sich Wissenschaftler mit der Frage zu beschäftigen, ob Maschinen wie Menschen denken und lernen können. Dieser neue Begriff geht auf Alan Turing zurück, einen bedeutenden britischen Mathematiker. Er wurde 1912 geboren und war zunächst für die Entwicklung des ersten Computerprototyps bekannt, mit dem er die verschlüsselten Nachrichten der berühmten „Enigma“-Maschine entschlüsseln konnte, einem hochentwickelten Code, den die deutsche Armee während des Zweiten Weltkriegs verwendete. Im Jahr 1950 dachte sich der Mathematiker einen revolutionären Test aus, der als „Turing-Test“ bezeichnet wurde.

Dieser Test wurde in Form eines Spiels mit drei Spielern durchgeführt, die sich in verschiedenen Räumen befanden. Ein Interviewer stellt einem Mann und einer Frau schriftlich Fragen mit dem Ziel, ihr Geschlecht anhand ihrer Antworten zu bestimmen. Der Mann wird jedoch aufgefordert, sich als Frau auszugeben, um das Spiel komplexer zu gestalten. Nach dem ersten Spiel wird der Mann durch einen Computer ersetzt, der sich weiterhin als Frau ausgibt. Am Ende wird die Leistung der Interaktion zwischen Mensch und Maschine verglichen, um das Niveau der Fähigkeit der künstlichen Intelligenz zur Nachahmung einer menschlichen Konversation zu beschreiben - wenn es dem Computer gelingt, sich als Mensch auszugeben und somit den Fragesteller zu täuschen, wird er als „intelligent“ bezeichnet.

Dieser Test war ein wichtiger Ausgangspunkt für die Forschung im Bereich der künstlichen Intelligenz. Turing selbst sagte voraus, dass Computer eines Tages in der Lage sein würden, den Test erfolgreich zu bestehen. Er schätzte, dass Maschinen im Jahr 2000 in der Lage sein würden, etwa 30 Prozent der menschlichen Prüfer während eines fünfminütigen Tests zu täuschen. Er sagte auch jene Entwicklung voraus, die heute unter dem Begriff "Machine Learning", dem Lernen von Computern, bekannt ist.

Ebenfalls 1950 entwickelten zwei Harvard-Studenten, Marvin Minsky und Dean Edmonds, den Stochastic Neural Analog Reinforcement Calculator (Snarc). Snarc verwendet 3000 Vakuumröhren, um ein Netz aus 40 Neuronen zu simulieren. Die Idee hinter Snarc ist es, einen Computer zu schaffen, der wie ein Mensch lernen und Entscheidungen treffen kann. Tatsächlich kann Snarc Beispiele und Informationen studieren, um zu verstehen, wie bestimmte Dinge zu tun sind. Außerdem kann er anhand von Regeln Entscheidungen treffen.

Schachspiel

In den 1950er und 1960er Jahren begannen Forscher, die Fähigkeiten von Computern zur Lösung logischer und mathematischer Probleme zu erforschen. Im Jahr 1952 entwickelte Arthur Samuel eine Software, die selbstständig das Schachspielen erlernen konnte. Ein Schlüsselmoment in der Geschichte der KI ereignete sich viel später, im Jahr 1997, als der von IBM entwickelte Computer Deep Blue den Schachweltmeister Garry Kasparov besiegte. Es war ein einschneidender Moment, da zum ersten Mal ein Computer einen Menschen in einem so komplexen Spiel übertrumpfte. Allerdings würde Deep Blue aus heutiger Sicht als «reaktive Maschine» bezeichnet. Denn sie war zwar in der Lage, ein Schachbrett zu betrachten und Schachfiguren und mögliche Züge zu erkennen, aber ihre Intelligenz beschränkte sich darauf, Vorhersagen über Züge zu machen und den logischsten nächsten Zug zu wählen. Die Maschine war also nicht in der Lage, etwas über ihren Gegner zu lernen, indem sie Daten über seine Gewohnheiten, Spielfehler oder typischen Schachzüge sammelte.

Aber gehen wir erst einmal zurück in die 1950er Jahre. 1955 entwickelten die amerikanischen Forscher Allen Newell und Herbert A. Simon ein Pionierprojekt: den Logic Theorist. Dabei handelt es sich um ein Computerprogramm, das mathematische Theoreme beweisen kann. Es kann logische Probleme mithilfe von Regeln und Argumentationsschritten lösen und lernt aus seinen Erfahrungen, um bei der Lösung von Problemen noch besser zu werden. Newell und Simon wollten mit der Entwicklung des Logic Theorist zeigen, dass ein Computer so programmiert werden kann, dass er auf ähnliche Weise wie ein Mensch denkt und logische Probleme löst.

Die Konferenz am Dartmouth College

Im Jahr 1956 fand am Dartmouth College in den USA eine historische Konferenz über Künstliche Intelligenz statt. Diese Konferenz, an der mehrere Forscher teilnahmen, gilt als offizieller Startpunkt der KI-Forschung. Ziel war es, die Möglichkeit zu erforschen, intelligente Maschinen zu schaffen, die lernen, Probleme lösen und menschliche kognitive Prozesse simulieren können. Auf diesem Workshop wird der Begriff «Künstliche Intelligenz » geprägt.

In den 1970er und 1980er Jahren wurden Zweifel an der Künstlichen Intelligenz laut und ihre Entwicklung verlangsamte sich, vor allem weil die KI-Forscher die hohen Erwartungen, die an sie gestellt wurden, nicht erfüllen konnten. Infolgedessen wurden viele KI-Forschungsprojekte gestrichen und die Finanzierung gekürzt. Die milliardenschwere KI-Industrie begann zu bröckeln.

Entwicklung von XCON

Was als «Winter» der KI bezeichnet wurde, endete mit der Entwicklung von XCON im Jahr 1978 durch die Digital Equipment Corporation. XCON war das erste kommerzielle Expertensystem, das zur Konfiguration von Steuerungen für neue Computersysteme entwickelt wurde. Es war ein voller Erfolg: Schätzungen zufolge konnte das Unternehmen in nur sechs Jahren Betrieb oder Bewirtschaftung 40 Millionen US-Dollar einsparen, und es löste einen regelrechten Hype um Investitionen in KI aus.

Im Laufe der Jahre wurden die Computer dank des technologischen Fortschritts immer leistungsfähiger. Forscher haben verschiedene Ansätze zu ihrer Entwicklung erforscht. In den 1980er und 1990er Jahren wurde zum Beispiel eine Technik namens „künstliche neuronale Netze“ verwendet. Dieser Ansatz orientiert sich an der Funktionsweise des menschlichen Gehirns. 2006 entwickeln Geoffrey Hinton, Yoshua Bengio und Yann LeCun die Grundlagen für tiefe neuronale Netzwerke und Deep Learning. Diese Fortschritte und das Training von neuronalen Netzwerken ermöglichen es, komplexere Probleme zu lösen.

2011 gewinnt das KI-System IBM Watson in der amerikanischen Quizshow «Jeopardy!» gegen die erfolgreichsten menschlichen Teilnehmerinnen und Teilnehmer. 2014 präsentierte Google sein Forschungsprojekt DeepMind und zeigt, wie ein neuronales Netzwerk namens Deep Q-Network (DQN) ohne vorheriges Training in Atari-Spielen bessere Ergebnisse erzielt als menschliche Spieler. 2016 besiegt AlphaGo, ein von DeepMind entwickeltes KI-System, den weltbesten Go-Spieler Lee Sedol. Das Spiel «Go» galt lange Zeit als äusserst schwierig für künstliche Intelligenz, da es so komplex ist und eine sehr große Anzahl von Zügen möglich ist.

Heute wird KI in vielen Bereichen eingesetzt, von der Medizin über das Finanzwesen bis hin zu selbstfahrenden Autos. KI wird auch bei der Gesichtserkennung, der maschinellen Übersetzung, bei Film- und Musikempfehlungen und vielen anderen Anwendungen eingesetzt.

Für weltweites Aufsehen sorgte 2022 Open AI, notabene mit der Veröffentlichung von ChatGPT. ChatGPT wurde von Sam Altman, einem der Gründer von OpenAI, entwickelt. Es war der beispiellose Erfolg dieses Chatbots, der die Debatte über die Risiken der KI in den letzten Jahren erneut entfacht hat. Es ist nicht zu übersehen: Algorithmen sind längst Teil unseres Alltags geworden.

Starke und schwache KI

Es wird zwischen schwacher und starker KI unterschieden. Schwache KI ist die Art künstliche Intelligenz, an die wir im täglichen Leben gewöhnt sind. Die Aufgabe der schwachen KI ist es, sich auf einen konkreten Anwendungsfall zu konzentrieren. Sie bleibt auf einem sehr oberflächlichen Intelligenz-Level. So kann eine schwache KI zum Beispiel darauf trainiert sein, das Wetter vorherzusagen. Weitere Beispiele für eine schwache KI sind Assistenz-Systeme wie Siri oder Alexa. Auch die Rechtschreibprüfung in Microsoft Word oder Navigationssysteme gehören in diese Kategorie. Es geht nicht darum, die menschliche Intelligenz nachzuahmen, sondern unseren Alltag effizienter zu gestalten. Starke KI bezeichnet Systeme, die eigenständig und intuitiv ein komplexes Aufgabenspektrum ausführen können, das menschliche und, im weiteren Sinne, emotionale Intelligenz erfordert. Dies schliesst kommunikative wie empathische Fähigkeiten, Sinneswahrnehmungen, sowie das Deuten von Emotionen mit ein. In der akademischen Forschung wird seit langem versucht, dieses Ziel zu erreichen, mehrheitlich mit Machine Learning-Methoden.

Noch gibt es keine starke KI. Hingegen gibt es die Allgemeine Künstliche Intelligenz (AGI), ein neueres Konzept, das unter anderem von Sam Altman, dem Gründer von OpenAI, angeführt wird. Während sich die starke KI auf die Fähigkeit einer Maschine konzentriert, der menschlichen Intelligenz in jeder Hinsicht ebenbürtig zu sein, beschreibt die GAI eine Phase, in der die künstliche Intelligenz lernen, verstehen und selbstständig handeln kann, und zwar über eine Vielzahl von Aufgaben und Umgebungen hinweg, ähnlich der menschlichen Intelligenz.

Quellen: AIHubYou, Wix, Leexi, Wild Code School

Können Roboter wie Menschen denken und lernen?