Künstliche Intelligenz

Der Begriff „intelligent“ wird heute im Zusammenhang mit jeglicher Informations- und Kommunikationstechnik (IKT) geradezu verschwenderisch benutzt. Ob Handy, Kühlschrank oder eine x-beliebige Software – alles gilt als „intelligent“. Dabei sieht inzwischen selbst die Wissenschaft von der „Künstlichen Intelligenz“ die Chancen, eine im menschlichen Sinn intelligente Maschine zu entwickeln, erheblich nüchterner als in ihren Anfangsjahren vor etwa einem halben Jahrhundert ?

 

Große Ereignisse werfen lange Schatten — und übertreffen sie dann manchmal noch um Längen. Ein solches Ereignis war die Erfindung des Computers, geboren aus der Einsicht, dass man die Aufgaben der Zukunft unmöglich vorhersagen könne — eine Einsicht, die schon Mitte des letzten Jahrhunderts auch die Militärs der USA hatten. Sie formulierten deshalb den Auftrag, eine Maschine zu bauen, die in der Lage sein sollte, Aufgaben zu lösen, die man sich bei ihrer Entwicklung nicht einmal vorstellen konnte. Kein normaler Ingenieur würde einen solchen Auftrag formulieren — aber Militärexperten sind keine Ingenieure, schon gar nicht normale. So wurde tatsächlich der damals so genannte „Universalcomputer“ geboren, der im Prinzip auch heute noch unverändert fortlebt — als eine der größten Errungenschaften der Technik … Selten hat das Eingeständnis eines Unvermögens einen derartigen Fortschritt ausgelöst.

 

Nur wenige Jahre später, 1956, kam John McCarthy, einer der frühen Informatiker, dann zu einer weiteren Einsicht, nämlich zu der, dass der Mensch ziemlich dumm sei. Warum also nicht diese grandiose neue Erfindung einsetzen, um dem Menschen eine höhere Intelligenz zu verschaffen? Und so entstand – als einer der langen Schatten, die das Ereignis Computer geworfen hat und immer noch wirft – die Idee einer „Artificial Intelligence“ (AI). Diese Idee fand auch in Deutschland schnell Anhänger. Hier wurde das Objekt der Begierde in direkter Übersetzung „Künstliche Intelligenz“ (KI) genannt.

 

Heute trennen uns nun fast 60 Jahre von diesen Tagen – Zeit, Bilanz zu ziehen.

Ursprünge und Wandel der Idee

Aus der heutigen Zeit heraus kann man die Idee der künstlichen Intelligenz nur schwer nachvollziehen, weil deren Kernstück, der Computer, jeglichen mystischen Glanz verloren hat – er ist zu einem Alltagsgerät geworden. Neben ihm erlitt auch die Technik insgesamt einen Ansehensverlust, obwohl es nie eine bessere Technik gegeben hat als heute. (Was man nicht mit Zuneigung verwechseln darf. Heute sitzen in der Straßenbahn in Berlin oder im Bus in Timbuktu alle mit einem Smartphone in der Hand und gucken unentwegt auf das Display. Mancher verpasst dabei die Station, an der sie/er aussteigen sollte.)

 

Die Idee der künstlichen Intelligenz jedoch wurde noch geboren in einem geistigen Umfeld der Technikbewunderung und Computerverehrung. Gleichzeitig erlebte die ganze Welt die Nachwehen der größten von Menschen verursachten Katastrophe, des 2. Weltkriegs. Daher scheint es verständlich, dass Menschen damals besonders gerne an eine höhere Intelligenz als die natürliche geglaubt haben. Spätere Anhänger der KI haben sich dann vehement gegen den Vorwurf gewehrt, man habe jemals ernsthaft geglaubt, menschenähnlich denkende und fühlende Wesen künstlich erzeugen zu können, die ihre Schöpfer und Vorbilder gar übertrumpfen könnten. Viele Literaturstellen der damaligen Zeit allerdings sprechen dafür.

 

Das geistige Umfeld dieser Idee gebar auch einige der wichtigsten Vorstellungen, die unser Denken und Handeln heute noch beherrschen. So hat z.B. Vannevar Bush vom Computerlabor des legendären MIT (Massachusetts Institute of Technology) in Boston, mit seiner Veröffentlichung „As we may think“ die Grundlagen der Hypertext-Technik gelegt, die heute eines der wichtigsten Merkmale des „Internet“ ist. Interessant ist, dass dies bereits im Jahre 1945 geschah, als es weniger Computer auf der Welt gab als Finger an einer Hand.

 

Ebenfalls zu diesem Umfeld gehört das Projekt MAC, das ab 1963 von der DARPA (Defense Advanced Research Projects Agency) finanziert wurde. Mit diesen Namen verbinden wir vor allem zwei Tatsachen:

 

– Was heute technisch als „Internet“ funktioniert, wurde bereits ab 1969 von der DARPA projektiert – ist also auch ein Militärprojekt. Zum heutigen „Internet“ fehlte nur noch das „WWW“, das World-Wide-Web. Dafür sorgte dann – auf der Basis der alten Hypertext-Idee – Anfang der 1990er Jahre Tim Berners Lee, Informatiker am CERN, der Europäischen Organisation für Kernforschung in Genf. Allerdings darf man ein Militärprojekt nicht so verstehen, dass seine Idee militaristisch gewesen sei. Der Projektleiter Licklider hatte bereits vor Übernahme des Auftrags dargelegt, was entstehen sollte: ICN = Intergalactic Computer Network, ein Treffpunkt für alle, ein Forum für alle Aktivitäten. Fast alles, was man heute mit dem Wort „Internet“ verbindet, fand erschien in dem Konzept von ICN.

 

– Der Projektname MAC wurde beibehalten, veränderte aber seine Bedeutung. So hieß das Projekt ursprünglich „Mathematics and Computation“, später „Multiple Access Computer“, dann „Machine Aided Calculations“ und zuletzt „Man and Computer“. Will sagen: Die hinter dem Projekt stehenden Vorstellungen änderten sich ständig, das Projekt häutete sich dauernd, behielt seinen Namen jedoch bei – und seine Verbindung zu Mathematik und Logik.

 

Genau 30 Jahre nach der ersten Idee von McCarthy hielt die Firma Bull, in Vertretung weiterer führender Computerhersteller – z.B. Siemens und ICL – ein Expertensymposium zum Thema „Künstliche Intelligenz“ ab, um den damals erreichten Stand der Wissenschaft zu diskutieren. Dem Bericht der Veranstaltung kann man entnehmen, dass der Glaube an die künstliche Intelligenz zu der Zeit immer noch fröhliche Urständ feierte – wenn auch begleitet von vielen technischen Details wie etwa der zur Realisierung der KI nötigen Programmiersprachen (Lisp und Prolog) und der sogenannten „logischen Datenbanken“.

 

Bemerkenswert an dem Bericht über das Expertentreffen von 1986 ist, dass darin auch des öfteren von der „5. Computergeneration“ die Rede war (die seinerzeit die Japaner realisieren wollten). Diese neuen Computer sollten nämlich vielerlei Fähigkeiten besitzen, wie sie auch lebenden Wesen eigen sind. Zum geplanten Repertoire gehörte eine gewisse Entscheidungsfähigkeit ebenso wie eine höhere Intelligenz (insbesondere Lernfähigkeit und logisches Denken) und – nicht zu vergessen – das Erkennen von Sprachen, Figuren, Bildern, dreidimensionalen Objekten und manches mehr. Dieses Projekt faszinierte damals nicht nur die Fachwelt. Bis dahin hatte man unter dem Begriff Computer nämlich eher so etwas wie eine elektrifizierte Buchhaltung verstanden.

 

Weitere 20 Jahre später, diesmal zum 50. Geburtstag der KI-Idee, fand 2006 in Bremen erneut ein Symposium statt, bei dem wieder die großen Namen der Szene vertreten waren, so z.B. Marvin Minsky, auch als „Vater der KI“ bezeichnet. Minsky hat auf diesem Wissenschaftlertreffen die 50 Jahre KI auf eine höchst nüchterne Formel reduziert: „Viele Computerprogramme können menschliche Fähigkeiten übertrumpfen. Aber jedes kann nur einer Aufgabe genügen, ansonsten nichts ausrichten. Sie besitzen kein Allgemeinwissen und können nicht nach gesundem Menschenverstand urteilen. Künstliche Intelligenzen sind nicht vernünftig, weil ihnen das Wissen fehlt, was alle Menschen besitzen.

 

Die damit gezogene Bilanz dürfte dem tatsächlichen Stand der Technik (oder der Kunst?) sehr nahe kommen. Bleibt noch zu erwähnen, dass von den Firmen, die 1986 das KI-Jubiläum veranstaltet hatten, nur noch Bull übrig geblieben war. Andere Hauptdarsteller der Szene (z.B. die Firma DEC) gibt es schon lange nicht mehr. Und das „Mega“-Projekt von 1986, die „5. Computergeneration“, wurde so still zu Grabe getragen, dass nicht einmal alle Informatiker das Ableben richtig gemerkt haben. Vom den größten Hauptdarsteller der früheren Szene der kommerziellen Informatik, der IBM, kann man zwar nicht von einem Ableben berichten. Dennoch musste sich das Unternehmen so weit häuten, um einem Bankrott in den 1990er Jahren zu entgehen, so dass man eigentlich von einem neuen Unternehmen sprechen müsste.

Was ist eigentlich Intelligenz?

Auch fast 70 Jahre nach der Geburt der KI-Idee scheint es erforderlich, nach dem Gegenstand zu fragen, mit dem sie sich beschäftigt: Was ist Intelligenz?

 

In der Psychologie wird Intelligenz als Sammelbegriff für die „kognitiven“ Fähigkeiten des Menschen benutzt, also für die Fähigkeit zu verstehen, zu abstrahieren und Probleme zu lösen, Wissen zu benutzen und Sprache zu verwenden. Oder mit anderen Worten: Wahrnehmen, Denken, Lernen, Erinnern, Motivation.

 

Wobei Intelligenz stets für eine Eigenschaft von Individuen gehalten wird. Deshalb ist auch eine Ameise nach unseren Vorstellungen unendlich dumm, weil sie in einem IQ-Test 0 Punkte erreichen würde. Und das, obwohl es kaum ein sichtbares Lebewesen auf unserem Planeten gibt, das diesen intelligenter beherrscht. (Die unsichtbaren Lebewesen tun dies möglicherweise noch intelligenter.)  Das Wichtigste also, wodurch auch alle menschlichen Errungenschaften realisiert worden sind und noch weiter realisiert werden, nämlich das Soziale, kommt in der KI-Wissenschaft einfach nicht vor – oder allenfalls am Rande, als „das Umfeld“. Ein riesiges Manko! Was z.B. wäre ein Unternehmen aus lauter intelligenten Individuen, die keine Gemeinsamkeiten entwickeln?

Wie intelligent sind Computer geworden?

Wollte man diese Frage genauso beantworten, wie sie in der Überschrift gestellt wird, wäre die Bilanz eine deprimierende. Keine der Eigenschaften, die KI-Systeme den ursprünglichen Vorstellungen folgend schon längst aufweisen sollten, ist auch nur annäherungsweise erreicht. So sollten Computer z.B. die Erkennung von Sprache bereits vor 20 oder 30 Jahren perfekt beherrschen und damit z.B. die Eingabe von Text mit der Tastatur überflüssig machen.

 

Realität ist: Auch die besten Systeme stellen bestenfalls Mittelmaß dar, sodass entsprechende Anwendungen immer noch Nischenprodukte sind. Während man sich einst vorgestellt hatte, dass Computer „Verstehen“ lernen würden, sind sie auch heute nicht einmal in der Lage, gedruckten Text rein formal in eine Datei zu übertragen – von „Verstehen“ keine Spur. Und wirkliche Entscheidungen treffen? Gott bewahre!

 

Stellen wir die Frage also etwas anders: Welche intelligente Leistungen bieten Computersysteme heute? Diese Änderung der Fragestellung führt zu ganz anderen Ergebnissen. So haben Computer nachgewiesen, dass sie auch den bestqualifizierten Menschen im Schachspielen matt setzen können. Und bei Abertausenden von Spezialaufgaben, die keineswegs trivialer Natur sind, sondern eher als sehr komplex und anspruchsvoll gelten müssen, brauchen selbst die besten Experten des Fachs gegen den Computer gar nicht erst anzutreten.

 

Wo liegt der Unterschied? Selbst Wissenschaftlern wie Evans, die Anfang der 1980er Jahre noch postuliert hatten, dass es in absehbarer Zeit „ultra-intelligente“ Maschinen geben werde, die die menschliche Intelligenz weit übertreffen könnten, war klar, dass die allgemeine Intelligenz von Computern in den 1960er Jahre etwa auf der Ebene von Amöben lag, und Ende der 1970er Jahre noch deutlich hinter den „Ohrwürmern“.

 

Dennoch darf das nicht über die erreichten Fortschritte hinwegtäuschen: Die IBM 704, der erste Rechner, der mit der KI-Programmiersprache Lisp arbeitete, beherrschte Gleitkomma-Arithmetik und konnte 40000 Befehle in der Sekunde abarbeiten. Damit wäre er heute etwa so „intelligent“ wie ein modernes Türschloss oder nicht einmal das. „Blue Gene“ hingegen, der Rechner, der den Schachweltmeister matt setzte, rechnet heute mit 280 > Teraflops oder 280 Billionen Operationen in der Sekunde. Und dennoch gilt er nicht als „schöpferisch“, ja, nicht einmal als intelligent, sondern nur als „sehr schnell“. Etwas anders muss man freilich über Watson denken, die Maschine, die den Champion in Jeopardy besiegt hat. Jeopardy ist nämlich kein Wissensquiz, in dem ein Computer mit einem großen Inhalt und schneller Rechentechnik jeden Menschen schlagen könnte, ohne dass man sich darüber wundern müsste. Bei Jeopardy muss man um die Ecke denken. Aber auch bei Watson ist eine ziemliche Ernüchterung eingetreten. Trotz großartiger Entwicklungen.

 

Ziehen wir ein Fazit: Für Praktiker, die heute und morgen mit Computern arbeiten wollen, besitzt der Begriff KI immer noch nur geringe Bedeutung. Er hat sich selbst für manchen Wissenschaftler als eher irreführend erwiesen. Dennoch stellt die Idee der „Künstlichen Intelligenz“ eine faszinierende Aussicht dar und zeigt Ziele auf, die aber wohl erst in mehreren Menschengenerationen (vielleicht) erreicht werden können.

 

Den Wert, den diese Leitidee dennoch hat, kann man an technischen Fortschritten ablesen, die von der KI zumindest mittelbar bewirkt worden sind. Und das sind z.B. gut funktionierende > Expertensysteme, ausgeklügelte Automationen, Roboter mit vielseitigen Fähigkeiten, Maschinen mit „Sehvermögen“ und das ist doch auch schon was.

 

Das Jahr 2023 erlebte einen Hype ungewohnten Ausmaßes. ChatGPT war in aller Munde. Angeblich hat diese KI selbst Examensarbeiten geschrieben. Bei Google heißt die KI Bard. Man darf es benutzen, darf aber eine ganz klein gedruckte Warnung nicht übersehen: „Bard zeigt möglicherweise fehlerhafte Informationen an, z. B. zu Personen.“ Aber auch ChatGPT „erfindet“ sogar Personen. Zwar ist so etwas nicht allzu gefährlich, wenn die Informationsquelle nicht gerade vertrauenswürdig erscheint. Dummerweise ist dies weder bei ChatGPT noch Bard der Fall. Beide präsentieren in perfektem Deutsch, was sie aus Millionen Dokumenten zusammenreimen. Und man findet viel Wahres darin.

 

Die größte potentielle Gefahr droht von den Dokumenten, mit denen die KI trainiert werden. Diese können selbst von einer KI geschrieben worden sein und somit auf fehlerbehafteten Quellen beruhen. Was bei ChatGPT , Bard (Google) u.ä. KI, also künstliche Intelligenz genannt wird, ist ein Sprachmodell, LLM = large language model, bei dem ein Computersystem mit vielen Texten gefüttert wird, aus denen es „lernen“ soll, was einem bestimmten Wort oder einer Phrase folgen kann. Wie es dabei lernt, ist ein Geheimnis des jeweiligen Anbieters. Kein Geheimnis ist allerdings, das KI real existierende Daten mit „erfundenen“ mischt und ein stilistisch und grammatikalisch nahezu perfektes Ergebnis produziert. Diese Gefahr der Täuschung einer Perfektion wird gesteigert durch das Verhalten der „Autoren“ realer Texte, den Anbietern ihre Texte zu verweigern, während das Internet voller freier Texte ist, die von Maschinen erzeugt werden. D.h., von Maschinen generierte fehlerhafte Texte werden analysiert und zum Lernen benutzt, um später neue Texte zu produzieren.

 

Nicht nur Texte werden von der KI „gelernt“, sondern insbesondere Bilder. Wenn diese bei der Generierung neuer Bilder benutzt werden, steht der Klischeebildung nichts im Wege. Während sich die Kritiker der KI z.B. mit der Vertiefung von Vorurteilen durch diesen Vorgang beschäftigen, ergibt sich eine besondere Gefahr für Business Intelligence, also Geschäftsanalytik, weil eine wichtige Quelle, die Wirtschaftspresse, traditionell mit absichtlich veränderten Abbildungen arbeitet, um nicht zu sagen, mit verzerrten Grafiken, Statistiken und Bildern. Der Autor mehrerer erfolgreicher Bücher zur Visualisierung von Daten, Edward Tufte, ist insbesondere bekannt durch seine Kritik an Power Point, dem „Standard“ für Visualisierung, der im Geschäftsleben Fließtexte weitgehend abgelöst hat. Power Point Visualisierungen funktionieren aber insbesondere als Teaser, zu denen der Vortragende einen erheblichen Teil der Gesamtinformation verbal addiert. Nicht selten wird dabei die mögliche Aussage der Charts in Gegenteil umgedreht. Tufte hatte ausgesagt „Powerpoint is evil!“ Der Spruch basierte auf seiner Analyse der Katastrophe mit der Raumfähre Columbia, bei der er die NASA durch Power Point Bilder getäuscht und in die Irre geführt sah.

 

Und „Blue Gene“, der Rechner, der den Schachweltmeister matt setzte, muss sich bei Mühle jedem Kleinkind geschlagen geben. Er braucht erst gar nicht anzutreten. Was allerdings Watson bei Halma täte? Hierzu meinte Bard am 23.12.2023: „Ja, Watson kann Halma spielen … Es ist also durchaus möglich, dass Watson auch Halma spielen kann … Hier sind einige Möglichkeiten, wie Watson Halma spielen könnte: …“ Kann er das oder könnte er?

 zurück zu: Anfang

Cookie Consent mit Real Cookie Banner