Die Geschichte der künstlichen Intelligenz

1538

Neben diesen Automaten, die zumindest von ihren Konstrukteuren und Erbauern in aller Regel tatsächlich als Maschinen mit begrenzten mechanischen Fähigkeiten verstanden wurden, gab es auch theoretische oder literarische Entwürfe von künstlich erzeugten Lebewesen, die in ihren Fähigkeiten und auch in ihrem Aussehen dem Menschen ähnlich sein sollten. Eine allgemeine Vorstellung von einem Homunculus wurde schon in der Antike beschrieben, ein Plan für die angebliche Herstellung eines Homunkulus findet sich in der Schrift De natura rerum (1538), die allgemein Paracelsus zugeschrieben wird. Weitere Beispiele sind hier die jüdische Legende vom Golem in ihren verschiedenen Varianten oder Mary Shelleys Roman Frankenstein.

Quelle

1748

Einige verorten die erste Erwähnung von KI (im modernen Sinn) in Jonathan Swifts Roman „Gullivers Reisen“ aus dem Jahr 1726. In der Geschichte kommt eine computerähnliche Maschine namens „Engine“ vor, die zur Erweiterung des Wissens und der Verbesserung mechanischer Abläufe eingesetzt wird. Die Idee, dass sich die menschliche Intelligenz oder auch ganz allgemein die Vorgänge des menschlichen Denkens möglicherweise automatisieren oder mechanisieren lassen, dass der Mensch eine Maschine konstruieren und bauen könnte, die auf irgendeine Art und Weise intelligentes Verhalten zeigt, ist allerdings schon sehr viel älter. Als früheste Quelle wird zumeist auf Julien Offray de La Mettrie und sein 1748 veröffentlichtes Werk L’Homme Machine verwiesen. Auch die Idee des Laplaceschen Dämons, benannt nach dem französischen Mathematiker, Physiker und Astronomen Pierre-Simon Laplace kann insofern zu den theoretischen Vorläufern der Künstlichen Intelligenz gezählt werden, als diesem Entwurf die Modellvorstellung zugrunde liegt, dass das gesamte Universum nach den Regeln einer mechanischen Maschine – gewissermaßen wie ein Uhrwerk – abläuft, und diese Vorstellung dann natürlich auch den Menschen und seinen Geist, seine Intelligenz, mit einschließt.

Quelle

1915

Im 20. Jahrhundert nimmt die KI-Faszination dann Fahrt auf. Einerseits durch fiktionale Figuren wie den Zinnmann im „Zauberer von Oz“, andererseits durch die realen Fortschritte auf theoretischer Ebene – beispielsweise die Veröffentlichung von Bertrand Russells und Alfred N. Witheheads „Principia Mathematica“ im Jahr 1913 oder den von Leonardo Torres Qeuvedo im Jahr 1915 konstruierten Schachautomaten.

Quelle

1943

Historisch gesehen wurden die ersten KNNs als lineare Modelle wie die McCulloch-Pitts-Zelle 1943 und das Adaline-Modell 1959 entwickelt. Man analysierte, ausgehend von der Neurophysiologie, die Informationsarchitektur des menschlichen und tierischen Gehirns. Zur Untersuchung dieser Verfahren hat sich die Neuroinformatik als wissenschaftliche Disziplin entwickelt. Schwächen bei der Modellierung selbst einfacher logischer Funktionen wie dem XOR durch diese linearen Modelle führten zunächst zu einer Ablehnung der KNNs und biologisch inspirierter Modelle im Allgemeinen.

Quelle

1950

Alan Turing Test

Der britische Mathematiker Alan Turing beweist durch seine Theorien, dass eine Rechenmaschine – eine sogenannte „Turingmaschine“ – in der Lage wäre, kognitive Prozesse auszuführen, sofern diese sich in mehrere Einzelschritte zerlegen und durch einen Algorithmus darstellen lassen. Damit legt er den Grundstein für das, was wir heute unter Künstlicher Intelligenz verstehen.

Quelle

1955

Als Gründungsveranstaltung der künstlichen Intelligenz als akademischem Fachgebiet gilt die Dartmouth Conference im Sommer 1956 am Dartmouth College in Hanover (New Hampshire), ein sechswöchiger Workshop mit dem Titel Dartmouth Summer Research Project on Artificial Intelligence, organisiert von John McCarthy im Rahmen eines von der Rockefeller-Stiftung geförderten Forschungsprojekts. Im Antrag dazu erschien erstmals der Begriff „artificial intelligence“[1] Neben McCarthy selbst nahmen daran unter anderen Marvin Minsky, Nathaniel Rochester und Claude Elwood Shannon teil.
Im Jahr 1956 nutzen der Informatiker Allen Newell, der Programmierer Cliff Shaw und der Wirtschaftswissenschaftler Herbert Simon das KI Proof-of-Concept. Gemeinsam entwerfen sie das Programm „The Logic Theorist“, das von der Research and Development Corporation (RAND) finanziert wird. Das Programm soll den menschlichen Denkprozess replizieren und der Startschuss für die rasante KI-Entwicklung der kommenden Jahre sein.

Quelle

1957

Herbert Simon prognostizierte 1957 unter anderem, dass innerhalb der nächsten zehn Jahre ein Computer Schachweltmeister werden und einen wichtigen mathematischen Satz entdecken und beweisen würde. Diese Prognosen trafen nicht zu.

Quelle

1958

 John McCarthy schlug 1958 vor, das gesamte menschliche Wissen in eine homogene, formale Darstellungsform, die Prädikatenlogik 1. Stufe, zu bringen.

Quelle

1965

DENDRAL, Kubrick, Mikroprozessoren
Die nächste große Entwicklungshürde nimmt KI mit der Einführung des auf Molekularchemie spezialisierten Expertensystem DENDRAL im Jahr 1965. Das System wird am MIT entwickelt und basiert auf einer „Inferenzmaschine“, die auf die logische Nachahmung menschlicher Denkmuster abzielt. Das System kann Dateneingaben verarbeiten und ausgefeilte Antworten geben. Das auf DENDRAL-Basis entstandene MYCIN-System, das ab 1972 an der Stanford University eingesetzt wird, ist ein ebenso bedeutsames Beispiel.

Quelle

1966

ELIZA

ELIZA ist ein 1966 von Joseph Weizenbaum entwickeltes Computerprogramm, das die Möglichkeiten der Kommunikation zwischen einem Menschen und einem Computer über natürliche Sprache aufzeigen sollte.

Den Namen ELIZA wählte Weizenbaum in Anlehnung an das Schauspiel Pygmalion von George Bernard Shaw.[1] Das Programm kann über Skripte verschiedene Gesprächspartner simulieren. Bekannt geworden ist es für die oberflächliche Simulation eines Psychotherapeuten, der die non-direktiven Methoden der klientenzentrierten Psychotherapie nach Carl Rogers verwendet.

Weizenbaum schrieb das Programm in MAD-SLIP für eine IBM 7094, die das Time-Sharing-System CTSS des Massachusetts Institute of Technology verwendete.

ELIZA kann als frühe Umsetzung des Turing-Tests gesehen werden. Diesen hätte es jedoch nicht bestanden, da ein Benutzer recht einfach herausfinden kann, dass er mit einer Maschine kommuniziert.

Quelle

1968

Etwa zur selben Zeit werden im Kino die potenziellen Schattenseiten der KI in den Fokus gerückt – zum Beispiel mit Stanley Kubricks „2001: Odyssee im Weltraum“ im Jahr 1968. Der Film stellt besonders ethische Fragen im Hinblick auf KI ins Rampenlicht. Die Diskussion über die Regulation von KI-Systemen dauert bis heute an. Der wichtigste Meilenstein dieser Ära wird 1970 mit dem Aufkommen der ersten Mikroprozessoren erreicht. Dies gibt der Entwicklung der Technologie neuen Schwung und beschleunigt sie auf breiter Ebene.

Quelle

1972

Hubert Dreyfus‘ Buch Die Grenzen künstlicher Intelligenz stammt bereits aus dem Jahr 1972. Mycin (Eigenschreibweise MYCIN) ist ein seit 1972 an der Stanford University in der Programmiersprache Lisp entwickeltes Expertensystem, das zur Diagnose und Therapie von Infektionskrankheiten durch Antibiotika eingesetzt wurde.

Quelle

1973

erster KI Winter

In der Geschichte der künstlichen Intelligenz werden Phasen als KI-Winter bezeichnet, in denen öffentliche und private Forschungsförderung, Start-up-Finanzierung und Investitionen in die Künstliche Intelligenz (KI) stark zurückgehen. Dies geht einher mit einem geringen Fortschritt des Fachs, jedenfalls gegenüber den vorher erweckten (überzogenen) Erwartungen. Insofern ist der KI-Winter ein Beispiel für das „Tal der Enttäuschungen“ im Hype-Zyklus. Hohe mediale Aufmerksamkeit in Kombination mit oftmals vagen und wenig trennscharfen Definitionen von Künstliche Intelligenz können als potenzielle Ursache von den oftmals kursierenden überzogenen Erwartungen an KI-Technologien betrachtet werden.

Quelle

1976

Basierend auf den Arbeiten von Alan Turing, unter anderem auf dem Aufsatz Computing machinery and intelligence, formulierten Allen Newell (1927–1992) und Herbert A. Simon (1916–2001) von der Carnegie Mellon University in Pittsburgh die Physical Symbol System Hypothesis.[2] Ihr zufolge ist Denken Informationsverarbeitung, und Informationsverarbeitung ein Rechenvorgang, eine Manipulation von Symbolen. Auf das Gehirn als solches komme es beim Denken nicht an: „Intelligence is mind implemented by any patternable kind of matter.“ Diese Auffassung, dass Intelligenz unabhängig von der Trägersubstanz sei, wird von den Vertretern der starken KI-Forschung geteilt.

Quelle

1984

An der Robotik-Front wird 1984 mit der Entwicklung von RB5X, einem zylindrischen Roboter mit Organen, Nerven und einem transparenten „Kopf“ ein Meilenstein erreicht. Die selbstlernende Software ermöglicht RB5X die Vorhersage künftiger Ereignisse auf Grundlage historischer Daten.

Quelle

1986

Mit seinem Bruder Stuart E. Dreyfus beschrieb er die „Grenzen der Denkmaschine“ 1986. Nettalk
In den 1980ern kommt es zur ersten kommerziellen Anwendung von künstlicher Intelligenz. Die Digital Equipment Corporation nutzt das Expertensystem „RI“, um neue Computersysteme zu konfigurieren. Bereits im Jahr 1986 realisiert das System jährliche Einsparungen in Höhe von 40 Millionen Dollar. Hier deutet sich bereits an, welches Potenzial KI für Unternehmen birgt.

Quelle

1988

Für Marvin Minsky (1927–2016) vom Massachusetts Institute of Technology (MIT), einen der Pioniere der KI, ist „das Ziel der KI die Überwindung des Todes“. Der Roboterspezialist Hans Moravec (* 1948) von der Carnegie Mellon University beschrieb 1988 in seinem Buch Mind Children (Kinder des Geistes) das Szenario der Evolution des postbiologischen Lebens: Ein Roboter überträgt das im menschlichen Gehirn gespeicherte Wissen in einen Computer, sodass die Biomasse des Gehirns überflüssig wird und ein posthumanes Zeitalter beginnt, in dem das gespeicherte Wissen beliebig lange zugreifbar bleibt.

Quelle

1997

Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garri Kasparov in sechs Partien zu schlagen.

Quelle

2011

Im Jahr 2011 gewann das Computerprogramm Watson im Quiz Jeopardy! gegen die beiden bislang erfolgreichsten Spieler. Siri. Im darauffolgenden Jahr kann Googles „X-System“ einen weiteren KI-Meilenstein erreichen, indem es Katzen in einem Video erkennt

Quelle

2014

Mit Amazons Alexa wandert ein weiterer intelligenter Sprachassistent in das Leben vieler Menschen und steht von nun an in vielen Küchen, Wohn- oder Schlafzimmern. Anders als die Sprachassistenten von Smartphones, muss Alexa an einer Steckdose angeschlossen sein und reagiert erst, wenn man sie mit „Alexa“ anspricht. Datenschützer kritisieren den sorglosen Umgang der Anwender mit digitalen Assistenten und die dauerhafte Speicherung der Sprachbefehle in der Amazon-Cloud. Das Unternehmen argumentiert aber, dass die eingegebenen Sprachbefehle gelöscht werden können, die vorhandenen Daten aber für der Verbesserung des Systems notwendig sind.

Quelle

2016

Im Jahr 2016 muss sich schließlich der Go-Europameister Googles „AlphaGO“ geschlagen geben.
Microsoft startete auf Twitter den Chat Bot Tay – und musste ihn 16 Stunden später wieder ausschalten. Grund dafür waren rassistische und sexistische Äußerungen. Tay war lernfähig und sollte immer klüger werden, je mehr sie mit echten Menschen kommunizierte. Microsoft entschuldigte sich später dafür, den Missbrauch nicht vorhergesehen zu haben. Sie wollen Tay wiederbeleben, wenn sie sicher sein können, dass sie im Einklang mit Microsofts Prinzipien und Werten agiert

Quelle

2017

Das Google-Programm AlphaGo schlug den weltbesten Spieler Ke Jie in dem Spiel Go nachdem er ein Jahr zuvor bereits Lee Sedol geschlagen hatte. Das Spiel ist deutlich komplexer als Schach und galt bislang als zu komplex für Computer. Anders als der Schachcomputer Deep Blue, der alle Spielzüge analysiert, um den bestmöglichen herauszufinden, lernt AlphaGo wie ein Mensch: Die Software erhielt Daten von Millionen Zügen menschlicher Spieler und spielte Millionen Partien gegen sich selbst. Dabei analysierte das System, welche Züge sie zum Sieg brachten. Der Sieg von AlphaGo wird mit dem Match von Kasparov und Deep Blue hinsichtlich seiner Bedeutung für die Entwicklung der KI verglichen.

Quelle

2018

roject Debater. Die EU-Kommission setzt sich mit Vertretern aus Wissenschaft, Wirtschaft und Zivilgesellschaft zum Thema Ethik in der künstlichen Intelligenz zusammen und erstellt erstmals Leitlinien. Und auch die Bundesregierung reagiert mit einer EU-unabhängigen Datenethikkommission auf Fragen im Umgang mit KI.

Die Technologie entwickelt sich immer schneller weiter und ist schon lange kein abstraktes Konstrukt mehr, sondern ein massentaugliches Hilfsmittel wie Siri und Co. zeigen. Und auch der Umgang mit der intelligenten Maschine hat sich verändert: Die Angst vor der Übermacht der Maschine ist häufig Faszination gewichen. Das liegt wohl vor allem daran, dass wir ständig künstliche Intelligenzen in unseren Hosentaschen mit uns herumtragen, mit ihnen kommunizieren können und sie uns auch in Zukunft mit unseren Problemen behilflich sind. Das heißt aber nicht, dass jeder sorglos mit künstlicher Intelligenz umgeht und sich keine Sorgen mehr macht. Vielmehr ist eine gesunde Skepsis sogar angebracht, um sich auch den Schattenseiten der Entwicklung bewusst zu sein und ethische Grundsätze für KI zu entwickeln.

Quelle

7. März 2022

Equal Pay Day 2022

EQUAL PAY 4.0

Gerechte Bezahlung in der digitalen Arbeitswelt

Einer aktuellen Studie von PWC zufolge profitieren 86 Prozent der befragten Unternehmen vom Einsatz künstlicher Intelligenz – in Form einer optimierten Customer Experience. 25 Prozent der Unternehmen, die auf einen breiten KI-Einsatz setzen, erwarten sich davon für das Jahr 2021 eine Umsatzsteigerung. Die positive Wahrnehmung von KI in der Wirtschaft ist sicherlich auch auf die Erfahrungen in der Pandemie zurückzuführen, die neue Use Cases – zum Beispiel in der Personaleinsatzplanung und der Simulationsmodellierung – hervorgebracht haben.

Die Digitalisierung ist in vollem Gange und wird in den kommenden Jahren alle Bereiche unseres Lebens grundsätzlich verändern – wie wir kommunizieren, uns informieren, konsumieren und vor allem: wie wir arbeiten.

Wir müssen dafür sorgen, dass

  • Frauen und Männer gleichen Zugang zu Weiterbildungsangeboten haben
  • mehr Frauen in attraktiven Jobs im zukunftsträchtigen IT-Sektor tätig sind
  • Algorithmen für Personalauswahl, Kreditfinanzierung oder Gehaltsfestlegung nicht diskriminieren
  • Frauen konsequent an der Entwicklung und Umsetzung mobiler Arbeitsprozesse beteiligt werden
  • zusätzliche Fähigkeiten und Qualifikationen für die digitale Arbeitswelt sich auch in der Bezahlung widerspiegeln.

Für die gleiche Teilhabe von Frauen an der Digitalisierung setzt sich der BPW Germany e.V. (Initiator des Equal Pay Day) auch mit dem Aktionstag Frau Macht Digital ein.

Frau macht Digital
link interview

Podcats -

Der Podcast zu equal pay

link shop

Shop

Materialien für den Equal Pay Day

link wiki

Wiki

Gesammeltes Wissen über equal pay in Deutschland und anderswo

link publikationen

Publikationen

Alle EPD Journale können Sie hier nachlesen

link studien fakten

Studien

und Fakten

link newsletter

Newsletter

Melden Sie sich für den Newsletter an

initiiert von

unterstützt vom

 
Nach oben scrollen