Die Geschichte der künstlichen Intelligenz
1538
Neben diesen Automaten, die zumindest von ihren Konstrukteuren und Erbauern in aller Regel tatsächlich als Maschinen mit begrenzten mechanischen Fähigkeiten verstanden wurden, gab es auch theoretische oder literarische Entwürfe von künstlich erzeugten Lebewesen, die in ihren Fähigkeiten und auch in ihrem Aussehen dem Menschen ähnlich sein sollten. Eine allgemeine Vorstellung von einem Homunculus wurde schon in der Antike beschrieben, ein Plan für die angebliche Herstellung eines Homunkulus findet sich in der Schrift De natura rerum (1538), die allgemein Paracelsus zugeschrieben wird. Weitere Beispiele sind hier die jüdische Legende vom Golem in ihren verschiedenen Varianten oder Mary Shelleys Roman Frankenstein.
1748
Einige verorten die erste Erwähnung von KI (im modernen Sinn) in Jonathan Swifts Roman „Gullivers Reisen“ aus dem Jahr 1726. In der Geschichte kommt eine computerähnliche Maschine namens „Engine“ vor, die zur Erweiterung des Wissens und der Verbesserung mechanischer Abläufe eingesetzt wird. Die Idee, dass sich die menschliche Intelligenz oder auch ganz allgemein die Vorgänge des menschlichen Denkens möglicherweise automatisieren oder mechanisieren lassen, dass der Mensch eine Maschine konstruieren und bauen könnte, die auf irgendeine Art und Weise intelligentes Verhalten zeigt, ist allerdings schon sehr viel älter. Als früheste Quelle wird zumeist auf Julien Offray de La Mettrie und sein 1748 veröffentlichtes Werk L’Homme Machine verwiesen. Auch die Idee des Laplaceschen Dämons, benannt nach dem französischen Mathematiker, Physiker und Astronomen Pierre-Simon Laplace kann insofern zu den theoretischen Vorläufern der Künstlichen Intelligenz gezählt werden, als diesem Entwurf die Modellvorstellung zugrunde liegt, dass das gesamte Universum nach den Regeln einer mechanischen Maschine – gewissermaßen wie ein Uhrwerk – abläuft, und diese Vorstellung dann natürlich auch den Menschen und seinen Geist, seine Intelligenz, mit einschließt.
1915
Im 20. Jahrhundert nimmt die KI-Faszination dann Fahrt auf. Einerseits durch fiktionale Figuren wie den Zinnmann im „Zauberer von Oz“, andererseits durch die realen Fortschritte auf theoretischer Ebene – beispielsweise die Veröffentlichung von Bertrand Russells und Alfred N. Witheheads „Principia Mathematica“ im Jahr 1913 oder den von Leonardo Torres Qeuvedo im Jahr 1915 konstruierten Schachautomaten.
1943
Historisch gesehen wurden die ersten KNNs als lineare Modelle wie die McCulloch-Pitts-Zelle 1943 und das Adaline-Modell 1959 entwickelt. Man analysierte, ausgehend von der Neurophysiologie, die Informationsarchitektur des menschlichen und tierischen Gehirns. Zur Untersuchung dieser Verfahren hat sich die Neuroinformatik als wissenschaftliche Disziplin entwickelt. Schwächen bei der Modellierung selbst einfacher logischer Funktionen wie dem XOR durch diese linearen Modelle führten zunächst zu einer Ablehnung der KNNs und biologisch inspirierter Modelle im Allgemeinen.
1950
Alan Turing Test
Der britische Mathematiker Alan Turing beweist durch seine Theorien, dass eine Rechenmaschine – eine sogenannte „Turingmaschine“ – in der Lage wäre, kognitive Prozesse auszuführen, sofern diese sich in mehrere Einzelschritte zerlegen und durch einen Algorithmus darstellen lassen. Damit legt er den Grundstein für das, was wir heute unter Künstlicher Intelligenz verstehen.
1955
Als Gründungsveranstaltung der künstlichen Intelligenz als akademischem Fachgebiet gilt die Dartmouth Conference im Sommer 1956 am Dartmouth College in Hanover (New Hampshire), ein sechswöchiger Workshop mit dem Titel Dartmouth Summer Research Project on Artificial Intelligence, organisiert von John McCarthy im Rahmen eines von der Rockefeller-Stiftung geförderten Forschungsprojekts. Im Antrag dazu erschien erstmals der Begriff „artificial intelligence“[1] Neben McCarthy selbst nahmen daran unter anderen Marvin Minsky, Nathaniel Rochester und Claude Elwood Shannon teil.
Im Jahr 1956 nutzen der Informatiker Allen Newell, der Programmierer Cliff Shaw und der Wirtschaftswissenschaftler Herbert Simon das KI Proof-of-Concept. Gemeinsam entwerfen sie das Programm „The Logic Theorist“, das von der Research and Development Corporation (RAND) finanziert wird. Das Programm soll den menschlichen Denkprozess replizieren und der Startschuss für die rasante KI-Entwicklung der kommenden Jahre sein.
1957
Herbert Simon prognostizierte 1957 unter anderem, dass innerhalb der nächsten zehn Jahre ein Computer Schachweltmeister werden und einen wichtigen mathematischen Satz entdecken und beweisen würde. Diese Prognosen trafen nicht zu.
1958
John McCarthy schlug 1958 vor, das gesamte menschliche Wissen in eine homogene, formale Darstellungsform, die Prädikatenlogik 1. Stufe, zu bringen.
1965
DENDRAL, Kubrick, Mikroprozessoren
Die nächste große Entwicklungshürde nimmt KI mit der Einführung des auf Molekularchemie spezialisierten Expertensystem DENDRAL im Jahr 1965. Das System wird am MIT entwickelt und basiert auf einer „Inferenzmaschine“, die auf die logische Nachahmung menschlicher Denkmuster abzielt. Das System kann Dateneingaben verarbeiten und ausgefeilte Antworten geben. Das auf DENDRAL-Basis entstandene MYCIN-System, das ab 1972 an der Stanford University eingesetzt wird, ist ein ebenso bedeutsames Beispiel.
1966
ELIZA
ELIZA ist ein 1966 von Joseph Weizenbaum entwickeltes Computerprogramm, das die Möglichkeiten der Kommunikation zwischen einem Menschen und einem Computer über natürliche Sprache aufzeigen sollte.
Den Namen ELIZA wählte Weizenbaum in Anlehnung an das Schauspiel Pygmalion von George Bernard Shaw.[1] Das Programm kann über Skripte verschiedene Gesprächspartner simulieren. Bekannt geworden ist es für die oberflächliche Simulation eines Psychotherapeuten, der die non-direktiven Methoden der klientenzentrierten Psychotherapie nach Carl Rogers verwendet.
Weizenbaum schrieb das Programm in MAD-SLIP für eine IBM 7094, die das Time-Sharing-System CTSS des Massachusetts Institute of Technology verwendete.
ELIZA kann als frühe Umsetzung des Turing-Tests gesehen werden. Diesen hätte es jedoch nicht bestanden, da ein Benutzer recht einfach herausfinden kann, dass er mit einer Maschine kommuniziert.
1968
Etwa zur selben Zeit werden im Kino die potenziellen Schattenseiten der KI in den Fokus gerückt – zum Beispiel mit Stanley Kubricks „2001: Odyssee im Weltraum“ im Jahr 1968. Der Film stellt besonders ethische Fragen im Hinblick auf KI ins Rampenlicht. Die Diskussion über die Regulation von KI-Systemen dauert bis heute an. Der wichtigste Meilenstein dieser Ära wird 1970 mit dem Aufkommen der ersten Mikroprozessoren erreicht. Dies gibt der Entwicklung der Technologie neuen Schwung und beschleunigt sie auf breiter Ebene.
1972
Hubert Dreyfus‘ Buch Die Grenzen künstlicher Intelligenz stammt bereits aus dem Jahr 1972. Mycin (Eigenschreibweise MYCIN) ist ein seit 1972 an der Stanford University in der Programmiersprache Lisp entwickeltes Expertensystem, das zur Diagnose und Therapie von Infektionskrankheiten durch Antibiotika eingesetzt wurde.
1973
erster KI Winter
In der Geschichte der künstlichen Intelligenz werden Phasen als KI-Winter bezeichnet, in denen öffentliche und private Forschungsförderung, Start-up-Finanzierung und Investitionen in die Künstliche Intelligenz (KI) stark zurückgehen. Dies geht einher mit einem geringen Fortschritt des Fachs, jedenfalls gegenüber den vorher erweckten (überzogenen) Erwartungen. Insofern ist der KI-Winter ein Beispiel für das „Tal der Enttäuschungen“ im Hype-Zyklus. Hohe mediale Aufmerksamkeit in Kombination mit oftmals vagen und wenig trennscharfen Definitionen von Künstliche Intelligenz können als potenzielle Ursache von den oftmals kursierenden überzogenen Erwartungen an KI-Technologien betrachtet werden.
1976
Basierend auf den Arbeiten von Alan Turing, unter anderem auf dem Aufsatz Computing machinery and intelligence, formulierten Allen Newell (1927–1992) und Herbert A. Simon (1916–2001) von der Carnegie Mellon University in Pittsburgh die Physical Symbol System Hypothesis.[2] Ihr zufolge ist Denken Informationsverarbeitung, und Informationsverarbeitung ein Rechenvorgang, eine Manipulation von Symbolen. Auf das Gehirn als solches komme es beim Denken nicht an: „Intelligence is mind implemented by any patternable kind of matter.“ Diese Auffassung, dass Intelligenz unabhängig von der Trägersubstanz sei, wird von den Vertretern der starken KI-Forschung geteilt.
1984
An der Robotik-Front wird 1984 mit der Entwicklung von RB5X, einem zylindrischen Roboter mit Organen, Nerven und einem transparenten „Kopf“ ein Meilenstein erreicht. Die selbstlernende Software ermöglicht RB5X die Vorhersage künftiger Ereignisse auf Grundlage historischer Daten.
1986
Mit seinem Bruder Stuart E. Dreyfus beschrieb er die „Grenzen der Denkmaschine“ 1986. Nettalk
In den 1980ern kommt es zur ersten kommerziellen Anwendung von künstlicher Intelligenz. Die Digital Equipment Corporation nutzt das Expertensystem „RI“, um neue Computersysteme zu konfigurieren. Bereits im Jahr 1986 realisiert das System jährliche Einsparungen in Höhe von 40 Millionen Dollar. Hier deutet sich bereits an, welches Potenzial KI für Unternehmen birgt.
1988
Für Marvin Minsky (1927–2016) vom Massachusetts Institute of Technology (MIT), einen der Pioniere der KI, ist „das Ziel der KI die Überwindung des Todes“. Der Roboterspezialist Hans Moravec (* 1948) von der Carnegie Mellon University beschrieb 1988 in seinem Buch Mind Children (Kinder des Geistes) das Szenario der Evolution des postbiologischen Lebens: Ein Roboter überträgt das im menschlichen Gehirn gespeicherte Wissen in einen Computer, sodass die Biomasse des Gehirns überflüssig wird und ein posthumanes Zeitalter beginnt, in dem das gespeicherte Wissen beliebig lange zugreifbar bleibt.
1997
Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garri Kasparov in sechs Partien zu schlagen.
2011
Im Jahr 2011 gewann das Computerprogramm Watson im Quiz Jeopardy! gegen die beiden bislang erfolgreichsten Spieler. Siri. Im darauffolgenden Jahr kann Googles „X-System“ einen weiteren KI-Meilenstein erreichen, indem es Katzen in einem Video erkennt
2014
Mit Amazons Alexa wandert ein weiterer intelligenter Sprachassistent in das Leben vieler Menschen und steht von nun an in vielen Küchen, Wohn- oder Schlafzimmern. Anders als die Sprachassistenten von Smartphones, muss Alexa an einer Steckdose angeschlossen sein und reagiert erst, wenn man sie mit „Alexa“ anspricht. Datenschützer kritisieren den sorglosen Umgang der Anwender mit digitalen Assistenten und die dauerhafte Speicherung der Sprachbefehle in der Amazon-Cloud. Das Unternehmen argumentiert aber, dass die eingegebenen Sprachbefehle gelöscht werden können, die vorhandenen Daten aber für der Verbesserung des Systems notwendig sind.
2016
Im Jahr 2016 muss sich schließlich der Go-Europameister Googles „AlphaGO“ geschlagen geben.
Microsoft startete auf Twitter den Chat Bot Tay – und musste ihn 16 Stunden später wieder ausschalten. Grund dafür waren rassistische und sexistische Äußerungen. Tay war lernfähig und sollte immer klüger werden, je mehr sie mit echten Menschen kommunizierte. Microsoft entschuldigte sich später dafür, den Missbrauch nicht vorhergesehen zu haben. Sie wollen Tay wiederbeleben, wenn sie sicher sein können, dass sie im Einklang mit Microsofts Prinzipien und Werten agiert
2017
Das Google-Programm AlphaGo schlug den weltbesten Spieler Ke Jie in dem Spiel Go nachdem er ein Jahr zuvor bereits Lee Sedol geschlagen hatte. Das Spiel ist deutlich komplexer als Schach und galt bislang als zu komplex für Computer. Anders als der Schachcomputer Deep Blue, der alle Spielzüge analysiert, um den bestmöglichen herauszufinden, lernt AlphaGo wie ein Mensch: Die Software erhielt Daten von Millionen Zügen menschlicher Spieler und spielte Millionen Partien gegen sich selbst. Dabei analysierte das System, welche Züge sie zum Sieg brachten. Der Sieg von AlphaGo wird mit dem Match von Kasparov und Deep Blue hinsichtlich seiner Bedeutung für die Entwicklung der KI verglichen.
2018
roject Debater. Die EU-Kommission setzt sich mit Vertretern aus Wissenschaft, Wirtschaft und Zivilgesellschaft zum Thema Ethik in der künstlichen Intelligenz zusammen und erstellt erstmals Leitlinien. Und auch die Bundesregierung reagiert mit einer EU-unabhängigen Datenethikkommission auf Fragen im Umgang mit KI.
Die Technologie entwickelt sich immer schneller weiter und ist schon lange kein abstraktes Konstrukt mehr, sondern ein massentaugliches Hilfsmittel wie Siri und Co. zeigen. Und auch der Umgang mit der intelligenten Maschine hat sich verändert: Die Angst vor der Übermacht der Maschine ist häufig Faszination gewichen. Das liegt wohl vor allem daran, dass wir ständig künstliche Intelligenzen in unseren Hosentaschen mit uns herumtragen, mit ihnen kommunizieren können und sie uns auch in Zukunft mit unseren Problemen behilflich sind. Das heißt aber nicht, dass jeder sorglos mit künstlicher Intelligenz umgeht und sich keine Sorgen mehr macht. Vielmehr ist eine gesunde Skepsis sogar angebracht, um sich auch den Schattenseiten der Entwicklung bewusst zu sein und ethische Grundsätze für KI zu entwickeln.
7. März 2022
Equal Pay Day 2022
EQUAL PAY 4.0
Gerechte Bezahlung in der digitalen Arbeitswelt
Einer aktuellen Studie von PWC zufolge profitieren 86 Prozent der befragten Unternehmen vom Einsatz künstlicher Intelligenz – in Form einer optimierten Customer Experience. 25 Prozent der Unternehmen, die auf einen breiten KI-Einsatz setzen, erwarten sich davon für das Jahr 2021 eine Umsatzsteigerung. Die positive Wahrnehmung von KI in der Wirtschaft ist sicherlich auch auf die Erfahrungen in der Pandemie zurückzuführen, die neue Use Cases – zum Beispiel in der Personaleinsatzplanung und der Simulationsmodellierung – hervorgebracht haben.
Die Digitalisierung ist in vollem Gange und wird in den kommenden Jahren alle Bereiche unseres Lebens grundsätzlich verändern – wie wir kommunizieren, uns informieren, konsumieren und vor allem: wie wir arbeiten.
Wir müssen dafür sorgen, dass
- Frauen und Männer gleichen Zugang zu Weiterbildungsangeboten haben
- mehr Frauen in attraktiven Jobs im zukunftsträchtigen IT-Sektor tätig sind
- Algorithmen für Personalauswahl, Kreditfinanzierung oder Gehaltsfestlegung nicht diskriminieren
- Frauen konsequent an der Entwicklung und Umsetzung mobiler Arbeitsprozesse beteiligt werden
- zusätzliche Fähigkeiten und Qualifikationen für die digitale Arbeitswelt sich auch in der Bezahlung widerspiegeln.
Für die gleiche Teilhabe von Frauen an der Digitalisierung setzt sich der BPW Germany e.V. (Initiator des Equal Pay Day) auch mit dem Aktionstag Frau Macht Digital ein.