Eine Geschichte der künstlichen Intelligenz
Update: 2021-07-25
Description
Johannes Rabold
Gesina Schwalbe
Diesmal machen wir eine Zeitreise durch die (unserer Meinung nach) wichtigsten Kapitel und Meilensteine der Geschichte künstlicher Intelligenz. Wo kommt sie her? Wie fing es an? War KI schon immer so ein heißes Forschungsthema? Und was waren die wichtigen Treiber und Bremsen in der Geschichte der KI-Forschung? Um das zu beantworten, geht es (nahezu) chronologisch vom 19. bis ins 21. Jahrhundert entlang einiger von uns ausgewählten Ereignisse.
Errata (unsere Kurzschlüsse)
- Der ENIAC Computer wurde erst 1946, nicht schon 1943 vorgestellt. 1943 wurde der Bauvertrag unterzeichnet.
- Das Beispiel, dass ein Modell zur Detektion gegnerischer Panzer einen Bias zum Wetter hatte, scheint ein Mythos zu sein, wie hier recherchiert wurde: https://www.gwern.net/Tanks
Das macht das Beispiel aber leider nicht unrealistisch
Zusammenfassung: Ganz kurz für Beepo
- KI ist schon über 50 Jahre alt! Die Dartmouth Conference 1956 gilt als Begründung des Forschungsbereichs.
- KI war nicht immer ein komplettes „Hype-Thema“ und hat wenigstens zwei Tiefphasen (KI-Winter) in den 70ern und Ende der 80er hinter sich.
- KI ist nicht losgelöst von Geschichte und Zeitgeist. Z.B. war während des kalten Krieges ein wichtiger Geldgeber immer das Militär.
- Wichtigste Entwicklungstreiber der Forschung an künstlicher Intelligenz:
- Faszination & Streben nach Automatisierung
- Wettbewerb zwischen Staaten und große Firmen
- Theoretische Grundlagen, z.B. Grundlagen der Informatik oder neuronale Netze
- (mehr) Rechenleistung
- (mehr) Daten, d.h. Beispiele für das Trainieren von lernenden Algorithmen
- Wichtigste Entwicklungsbremse: Hypes um KI, d.h. zu große und dann stark enttäuschte Erwartungshaltung, weswegen Forschungsgelder wegbrechen; Gründe, weswegen Hypes abrupt endeten:
- Vorhergesagtes Versagen: Aufdecken theoretischer Limitierungen von „ge-hype-ten“ Ansätzen
- Nichteintreffen von vorhergesagten Durchbrüchen
Ein Zeitstrahl der KI
- Kapitel I: Die Vorarbeiten
- Jhd.: Ada Lovelace entwickelt erste Grundlagen des Programmierens.
- 1920: Der Begriff „Roboter“ wird geprägt in einem Theaterstück.
- 1936: Alan Turing beschreibt die Turingmaschine, eine theoretische Definition von Computeralgorithmen.
19431946: Mit dem ENIAC geht der erste programmierbare & turing-vollständige Computer in Betrieb, d.h. er hat den vollen Funktionsumfang einer Turingmaschine.- 1943: Die McCulloch-Pitts-Zelle ist die erste theoretische Beschreibung eines künstlichen Neurons, wie es für künstliche neuronale Netze benötigt wird.
- 1949: Aus der Psychologie motiviert wird die Hebbsche Lernregel für künstliche neuronale Netze vorgeschlagen („What fires together, wires together“).
- 1950: Alan Turing beschreibt den Turing-Test als Maß für die Qualität (eigentlich Menschenähnlichkeit) einer KI.
- Kapitel II: Die Gründung und der Anfang
- 1956: Auf dem Dartmouth College wird das Forschungsfeld der künslichen Intelligenz etabliert
- 1960: Frank Rosenblatt baut die erste lernfähige Maschine, indem er ein einfaches neuronales Netz implementiert, und ADELINE wird das erste kommerziell breit genutzte neuronale Netz.
- 1966: Der erste Chatbot ELIZA simuliert mit einfachsten Mitteln erfolgreich psychotherapeutische Gespräche.
- Kapitel III: 1. Winter und der Hype um Expertensysteme
- 1970er: Im Buch Perceptrons (-> zur engl. Zusammenfassung) beleuchten Misky und Papert Limitierungen damaliger neuronaler Netze, mit ein Auslöser des ersten KI-Winters.
- 1972: Das Expertensystem MYCIN für medizinische Diagnose zeigt beispielhaft die Stärken und Schwächen von Expertensystemen.
- 1986: Der Sprachcomputer NETtalk wird veröffentlicht.
- Kapitel IV: Aus dem 2. Winter zurück in die Öffentlichkeit
- 1987: Der 2. KI-Winter bricht an, ausgelöst durch Enttäuschungen im Bereich der Expertensysteme.
- 1989: Yann LeCun entwickelt die Architektur der faltenden neuronalen Netzen (Convolutional Neural Network), die später im Computer Vision Bereich abräumen werden. (-> gute Visualisierung der Faltungsoperation und hier ein ausführliche Erklärung auf englisch).
- 1997: Noch ein Beispiel einer wegweisenden Architektur neuronaler Netze wird entwickelt: Long-Short Term Memory (LSTM) neuronale Netze für sequenzielle Daten wie Text (-> gute Erklärung in Colah’s Blog).
- ab 1997: jährlicher Robocup Wettbewerbe in verschiedenen Disziplinen
- 1997: Das System Deep Blue von IBM schlägt mit purer Rechenleistung den amtierenden Schachweltmeister Garry Kasparov.
- Kapitel V: Mit Rechenleistung und Daten zum heutigen Erfolg
- 2011: „GPU-Revolution“ für neuronale Netze: Technologien für die Nutzung leistungsstärkerer Hardware ebnen den Weg für komplexe KI in großen Skalen.
- ab 2011: Noch mehr Siege in komplexen Spielen:
- ab 2011: Ära der persönlichen Assistenten bis hin zu natürlicher Konversation: u.a. Siri von Apple (2011), Cortana von Microsoft (2014), Amazon Alexa (2015), Google Assistant (2016), IBM Project Debater (2018), <a href="https://ai.googl
Comments
In Channel

















