EntdeckenSelbstbewusste KI
Selbstbewusste KI
Claim Ownership

Selbstbewusste KI

Autor: Karsten Wendland

Abonniert: 34Gespielt: 385
teilen

Beschreibung

Kann Künstliche Intelligenz ein Bewusstsein entwickeln?
Wie könnte das überhaupt funktionieren, und was würde das für uns bedeuten?

Staffel 2 (2023): 12 Folgen, 12 Gespräche mit Expertinnen und Experten und eine gemeinsame Abschlussrunde.

Staffel 1 (2020-21): 12 Folgen, 12 Gespräche mit Expertinnen und Experten und eine gemeinsame Abschlussrunde.

Autor: Karsten Wendland

Web: www.ki-bewusstsein.de
Twitter: twitter.com/KIBewusstsein
24 Episodes
Reverse
Der Unternehmer, Philosoph, Ökonom und Publizist Christian Hugo Hoffmann sieht blinde Flecken in der KI-Entwicklung. Gemeinsam sprechen wir über Unterschiede der Intelligenz von Menschen, Tieren und Maschinen und wie diese Differenzen ihn zu seinem neuen Buch motiviert haben. Weiter geht es darum, inwiefern sich die Intelligenzforschung auf falschen Pfaden befindet, um Alleinstellungsmerkmale menschlicher Intelligenz sowie über die Simulationstheorie. Für die Zukunft sieht Christian Hugo Hoffmann die Zuschreibung von Verantwortung nicht nur beim Menschen oder nur der Maschine, sondern auch in Mensch-Maschine-Teams. Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Licence: CC-BY In dieser Episode genannte Quellen:  Website von Christian Hugo Hoffmann: https://www.christian-hugo-hoffmann.com The Quest for a Universal Theory of Intelligence: https://www.degruyter.com/document/doi/10.1515/9783110756166/html Human Intelligence and Exceptionalism Revisited by a Philosopher: 100 Years After 'Intelligence and its Measurement': https://www.ingentaconnect.com/content/imp/jcs/2022/00000029/f0020011/art00003 Judea Pearl: http://bayes.cs.ucla.edu/jp_home.html Causality von Judea Pearl: http://bayes.cs.ucla.edu/BOOK-2K/ The Book of Why von Judea Pearl: http://bayes.cs.ucla.edu/WHY/ Yuval Noah Harari: https://www.ynharari.com/de/ Reality Plus von David Chalmers: https://www.suhrkamp.de/buch/david-j-chalmers-realitaet-t-9783518588000 Alpha Go: https://deepmind.google/technologies/alphago/ Technological Brave New World? Eschatological Narratives on Digitization and Their Flaws von Christian Hugo Hoffmann: https://scholarlypublishingcollective.org/psup/posthuman-studies/article-abstract/6/1/53/343530/Technological-Brave-New-World-Eschatological?redirectedFrom=fulltext
Der Philosoph und Linguist Sebastian Rosengrün arbeitet zu Chancen und Gefahren Künstlicher Intelligenz im Wechselspiel mit der Gesellschaft. Er warnt davor, Chatbots als moralische Instanzen anzuerkennen und pocht darauf, der Gesellschaft mögliche Konsequenzen solcher Zuschreibungen aufzuzeigen. Statt uns magischer Science-Fiction-Geschichten hinzugeben sollten wir uns mit realen Fehlentwicklungen konfrontieren – um sie abzuwenden. Gemeinsam sprechen wir über Essays, die von Chatbots geschrieben wurden, welche Irrtümer man in KI-Entwicklung hineinprojizieren kann, und warum man den Podcast Selbstbewusste KI hören sollte. Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Lizenz: CC-BY In dieser Episode genannte Quellen: Sebastian Rosengrün (2021): Künstliche Intelligenz zur Einführung. Junius Verlag. Sebastian Rosengrün bei der CODE University Berlin. Max Tegmark (2017): Leben 3.0: Mensch sein im Zeitalter Künstlicher Intelligenz. John R. Searle (1980): Minds, brains, and programs. Joseph Weizenbaum (1966): ELIZA – A Computer Programm For the Study of Natural Language Communication Between Man And Machine. Joseph Weizenbaum (1978): Die macht der Computer und die Ohnmacht der Vernunft. Suhrkamp Verlag.  F. Geier, S. Rosengrün (2023): Die 101 wichtigsten Fragen – Digitalisierung.  Hilary Putnam (1960): Minds and Machines. Raymond „Ray“ Kurzweil, der US-amerikanische Autor, Erfinder, Futurist und Leiter der technischen Entwicklung bei Google.
In seinen Romanen beschreibt der Science-Fiction-Autor Karl von Wendt (Pseudonym Karl Olsberg) zukünftige Welten, in den Menschen mit moderner Technik konfrontiert sind. Er zeigt, wie ihnen die Kontrolle über diese Technik entgleitet - bis hin zur Gefahr der völligen Vernichtung unserer Spezies. Anders als in seinen Romanen lässt sich in unsere realen Welt jedoch kein Held hineintexten, der die Menschheit vor dem Untergang retten kann. Karl von Wendt blickt mit Sorge auf zukünftige KI-Entwicklungen, insbesondere auf die Herausforderungen des Alignments von KI an verschiedenartige Wertekonzepte unterschiedlicher Menschengruppen. Seine Romane sollen die Leser zwar unterhalten, aber auch mahnen. So erzählt er auch, warum er das Moratorium zum 6-monatigen KI-Entwicklungsstopp des Future of Life Institutes mitunterzeichnet hat.  Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann In dieser Episode genannte Quellen: Aktuelles Buch von Karl Olsberg: Virtua Website von Karl Olsberg (aka Karl von Wendt). Das Moratorium zum 6-monatigen Stopp der KI-Entwicklung des Future of Life Institute. Der kanadische Informatiker und KI-Forscher Yoshua Bengio. 8 Schreibregeln des US-amerikanischen Science-Fiction-Schriftstellers Kurt Vonnegut. Wie ist es, eine Fledermaus zu sein? Vom US-amerikanischen Philosophen Thomas Nagel. Der Film Matrix in der International Movie Database IMDb. Das Jugendbuch Infernia von Karl Olsberg, in welchem die Figuren im Videospiel ein Bewusstsein haben. Der Open-AI Gründer Sam Altman. Die KI AlphaFold, die die Faltungsstruktur von Proteinen vorhersagen kann.
Helen Piel und Rudolf Seising sind Wissenschaftshistoriker am Deutschen Museum in München. Gemeinsam sprechen wir darüber, wie sich Forschung im Bereich der Künstlichen Intelligenz über die vergangenen Jahrzehnte verändert hat. Wir sprechen über die Entstehung des Begriffs Künstliche Intelligenz auf der Dartmouth-Konferenz 1956, den KI-Winter Anfang der 1970er und Versuche der Etablierung von „Intellektik“ als verbindende Fachwissenschaft zwischen Informatik und Kognitionswissenschaften. Es geht um blinde Flecken in der Wissenschaft, warum oft Jahrzehnte in falsche Richtungen geforscht wurde und wird, und wie alte Ideen wieder neu ins Zentrum der Relevanz rücken können. Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Licence: CC-BY In dieser Folge erwähnte Quellen: Anmeldung zur Abschlussveranstaltung des IGGI-Forschungsprojekts in München: https://forms.gle/Lu38A9YZTTPi9xS7A Helen Piel: https://www.deutsches-museum.de/forschung/person/helen-piel-2 Rudolf Seising: https://www.deutsches-museum.de/forschung/person/rudolf-seising-2 IGGI – Ingenieursgeist und Geistesingenieure: Eine Geschichte der Künstlichen Intelligenz in der Bundesrepublik Deutschland: https://www.deutsches-museum.de/forschung/forschungsinstitut/projekte/detailseite/iggi-ingenieur-geist-und-geistes-ingenieure IGGI-Teilprojekt: Verarbeitung von Bildern von Dinah Pfau: https://www.deutsches-museum.de/forschung/person/dinah-pfau-2 Dartmouth Conference 1956: https://aitoolsexplorer.com/ai-history/the-dartmouth-conference-the-event-that-shaped-ai-research/ René Descartes „Theorie der zwei Welten“ (Dualismus): https://www.dasgehirn.info/entdecken/meilensteine/rene-descartes-vater-der-leib-seele-theorie Wolfgang Bibel: http://www.intellektik.de/index/WolfgangBibel.htm  Studienführer KI (Bibel/Eisinger/Schneeberger/Siekmann): https://link.springer.com/chapter/10.1007/978-3-642-72963-8_1 Perceptron von Frank Rosenblatt: https://blog.hnf.de/frank-rosenblatt-und-das-perceptron/ Mythos Golem: https://www.nzz.ch/nzzas/nzz-am-sonntag/kultur-mythos-golem-ld.120179 Josef „Sepp“ Hochreiter: https://www.jku.at/institut-fuer-machine-learning/ueber-uns/team/sepp-hochreiter/ H. Piel, R. Seising (2023): Perspectives on Artificial Intelligence in Europe. IEEE Annals of the History of Computing. https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=10197444
Der theoretische Physiker Joachim Keppler forscht zu Bewusstsein mit strengen naturwissenschaftlichen Ansprüchen. Der Direktor des DIWISS-Instituts erläutert im Podcast, wie Bewusstsein in die Physik passt, dass Bewusstsein seinen exklusiven Ort gar nicht im Gehirn hat, und warum es sich vielmehr lohnt, das Hirn als Koppler an ein physikalisch beschreibbares Bewusstseinsfeld zu betrachten. Wir diskutieren die Frage, inwiefern man ein solcherart verstandenes Bewusstsein manipulieren oder gar hacken könnte, und natürlich, inwiefern Künstliches Bewusstsein auf diese Art möglich wäre.  Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Licence: CC-BY  In dieser Folge erwähnte Quellen: Forschungsinstitut DIWISS: https://www.diwiss.de Wissenschaftliche Konferenz "The Science of Consciousness 2023": https://tsc2023-taormina.it/ Keppler, Joachim (2023): Scrutinizing the Feasibility of Macroscopic Quantum Coherence in the Brain: A Field-Theoretical Model of Cortical Dynamics. Frontiers in Physics 11:1181416. doi: 10.3389/fphy.2023.1181416 (June 2023) https://www.frontiersin.org/articles/10.3389/fphy.2023.1181416/full Keppler, Joachim (2021): Building Blocks for the Development of a Self-Consistent Electromagnetic Field Theory of Consciousness. Frontiers in Human Neuroscience 15:723415. doi: 10.3389/fnhum.2021.723415 (September 2021) https://www.frontiersin.org/articles/10.3389/fnhum.2021.723415/full Keppler, Joachim (2020): The Common Basis of Memory and Consciousness: Understanding the Brain as a Write-Read Head Interacting With an Omnipresent Background Field. Frontiers in Psychology 10:2968. doi: 10.3389/fpsyg.2019.02968 (January 2020) https://www.frontiersin.org/articles/10.3389/fpsyg.2019.02968/full Originalarbeit zum Sender-Empfänger-Modell von Shannon und Weaver: A Mathematical Theory of Communication. By C. E. SHANNON (1949) https://web.archive.org/web/19980715013250/http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf Zero-Point-Field: https://www.scientificamerican.com/article/follow-up-what-is-the-zer/#    
Der Philosoph und Designtheoretiker Florian Arnold positioniert sich kritisch gegenüber modernen Segensrobotern oder KI-Religionen wie Way of the Future. Gemeinsam sprechen wir darüber, was Menschen dazu bewegt, solche Angebote anzunehmen, wie eine Gottheit funktioniert, die aus einem Quellcode besteht, wie diese Strukturen entstehen, sowie über die Zukunft der Kirche. Außerdem sprechen wir über Interpassivität, wie GPT einen Gottesdienst geschaffen hat und warum man einem KI-Gott nicht einfach den Stecker ziehen kann. Redaktion, Aufnahmeleitung und Produktion: Annelie Hirth, Robin HerrmannHerausgeber: Karsten Wendland Licence: CC-BY In dieser Folge erwähnte Quellen: Way of the Future church: https://techcrunch.com/2021/02/18/anthony-levandowski-closes-his-church-of-ai/ BlessU-2-Segensroboter:https://www.ekhn.de/aktuell/gluecksegen/ueber-den-segen/segensroboter-blessu-2.html K Allado-McDowell: https://www.kalladomcdowell.com KI-generierte Predigt auf Evangelischem Kirchentag 2023: https://www.businessinsider.de/leben/ki-gottesdienst-diese-predigt-wurde-von-chat-gpt-geschrieben/ Bruno Latour: http://www.bruno-latour.fr
Sascha Benjamin Fink kennt sich aus mit Schmerzerleben, Bewusstsein und Psychedelika. Der Professor für Neurophilosophie an der Universität Magdeburg forscht zu Neurophänomenalem Strukturalismus und kann verstehen, warum man darunter leiden kann, niemals einen Ferrari zu besitzen. Wir sprechen über die Möglichkeit leidensfähiger Maschinen und das „harte Problem“ des Bewusstseins. Außerdem berichtet er aus seinem neuen Forschungsprojekt PsychedELSI, das erste beeindruckende Ergebnisse in kontrollierter Therapie mit Psychedelika hervorbringt. Gemeinsam überlegen wir, inwiefern dies perspektivisch auch etwas für bewusste KI-Systeme sein könnte – High AI. Autor: Karsten Wendland Redaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Licence: CC-BY   In dieser Folge erwähnte Quellen:   Website von Sascha Benjamin Fink: http://finks.de Neurophänomenaler Strukturalismus: https://philosophymindscience.org/index.php/phimisci/article/download/9154/8692 PsychedELSI:  https://psychiatrie-psychotherapie.charite.de/forschung/suchterkrankungen/psychedelic_substances_research_group/research_projects/psychedelsi/ Sein-Sollen-Differenz: https://www.spektrum.de/lexikon/philosophie/sein-sollen-differenz/1840 Ebbinghaus-Illusion: https://www.newworldencyclopedia.org/entry/Ebbinghaus_illusion Müller-Lyer-Täuschung: https://www.spektrum.de/lexikon/neurowissenschaft/mueller-lyer-taeuschung/7991 EROWID Datenbank: https://www.erowid.org Projekt COGITATE Accelerating Research on Consciousness: https://www.arc-cogitate.com Bernstein Center for Computational Neuroscience Berlin:  https://www.bccn-berlin.de
„Humane KI“ steht im Leitbild von Vincent C. Müller, dem Direktor des Centre for Philosophy and AI Research (PAIR) an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU). Technik müssen wir so gestalten, dass wir sie ggf. auch wieder zurückholen können, wenn unvorhergesehene Technikfolgen eintreten oder Werte und Ziele sich ändern, so dass die Technik nicht mehr passt. Für den Humboldt-Professor gehört ethische Reflexion zum professionellen Handeln aller, die Technik entwerfen und in die Welt setzen. KI und Digitale Systeme sollten wir einsetzen, um die grundsätzlichen Herausforderungen der Menschheit aktiv anzugehen.   Autor: Karsten WendlandRedaktion, Aufnahmeleitung und Produktion: Karsten WendlandRedaktionsassistenz: Robin Herrmann Licence: CC-BY, DOI: folgt.  In dieser Folge erwähnte Quellen: Centre for Philosophy and AI Research (PAIR) an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU): https://www.pair.fau.eu Alan Turing Institute, https://www.turing.ac.uk MÜLLER, Vincent C.; AYESH, Aladdin. Revisiting Turing and His Test: Comprehensiveness, Qualia, and the Real World. 2012. https://philpapers.org/archive/MLLRTA.pdf Zum Ford Pinto Skandal: https://www.encyclopedia.com/science/encyclopedias-almanacs-transcripts-and-maps/ford-pinto-case  
Der Mathematiker, Physiker und Philosoph Klaus Mainzer hält es nicht für besonders sinnvoll, Maschinen zu bauen, die über ein Ich-Bewusstsein verfügen. Ihm ist es hingegen wichtig, dass in der Bevölkerung ein stärkeres Bewusstsein für Technik entsteht, dass Funktionsprinzipien besser verstanden und auch Grenzen besser eingeschätzt werden können. So könnte es gelingen, die breite Technikskepsis zu überwinden. Bezugspunkte im Gespräch sind u.a. Leibniz, Hilbert, Gödel, Penrose und natürlich aktuelle technische KI-Entwicklungen.   Autor: Karsten Wendland Redaktion, Aufnahmeleitung und Produktion: Karsten Wendland Licence: CC-BY, DOI: folgt.  In dieser Folge erwähnte Quellen: Klaus Mainzer, Reinhard Kahle: Grenzen der KI – theoretisch, praktisch, ethisch. Springer 2022.  Alan Turing: On computable numbers, with an application to the Entscheidungsproblem, Proceedings of the London Mathematical Society, 2, 42 (1937), S. 230–265. Online-Fassung Gottfried Wilhelm Leibniz: Theodizee (Originaltitel: Essais de Théodicée). Amsterdam 1710. Chat GPT: https://chat.openai.com Grundrechte: https://www.bundestag.de/gg/grundrechte Kurt Gödel: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. In: Monatshefte für Mathematik und Physik. 38, 1931, S. 173–198, doi:10.1007/BF01700692.  Ungelöste Probleme der Mathematik: https://mathworld.wolfram.com/topics/UnsolvedProblems.html Pause Giant AI Experiments: An Open Letter, https://futureoflife.org/open-letter/pause-giant-ai-experiments/ Roger Penrose: Computerdenken: die Debatte um künstliche Intelligenz, Bewußtsein und die Gesetze der Physik: Die Debatte um Künstliche Intelligenz, Bewusstsein und die Gesetze der Physik. Spektrum 2009. 
Trailer zur zweiten Staffel unseres Wissenschaftspodcasts Selbstbewusste KI Wir sind zurück, wir schreiben nun das Jahr 2023, und unser Wissenschaftspodcast „Selbstbewusste KI“ geht in die zweite Runde.  Wieder mit hochkarätigen Gästen und mit unterschiedlichen Perspektiven auf unsere Frage, inwiefern Künstliche Intelligenzen - oder allgemeiner: Synthetische Systeme – zu eigenem Bewusstsein befähigt sein könnten – und was das dann für uns bedeuten würde. Autor: Karsten Wendland. Licence: CC-BY.
Pflegeroboter, autonom fahrende Autos und beseelte Wesen – dies sind nur wenige von vielen spannenden Themen, die Schülerinnen und Schüler gemeinsam mit Experten in der letzten Folge der ersten Podcast-Staffel „Selbstbewusste KI“ diskutiert haben. Dabei kamen einige der Podcast-Gäste aus den vergangenen Folgen noch einmal zusammen, um mit den Schülerinnen und Schülern in einen Dialog auf Augenhöhe zu treten. Gesprächsgäste: Andreas Eschbach, Thomas Fuchs, Janina Loh, Thomas Metzinger, Ralf Otte, Christian Vater und Joachim Weinhardt Herausgeber: Karsten Wendland Redaktionelles Konzept: Tannaz Afshari Bakhsh, Franka Bockrath, Laura Müller, Anna Pallakst, Lea Riemann, Emma Rönnebeck, Eva Russow, Tamás Svajda und Renée Weisbach Moderation: Lara Wolf und Luis Tillmann Aufnahmeleitung: Karsten Wendland Produktion: Tobias Windmüller Feedback-Kanal: www.ki-bewusstsein.de/podcast Twitter: twitter.com/KIBewusstsein Licence: CC-BY Folgende weiterführende Quellen wurden in der Podcast-Folge genannt: Michael Chrichton: Prey, Harper Collins New York 2002. Leseprobe Fraunhofer Care-O-bot: Mobile Roboterassistenten zur aktiven Unter-stützung des Menschen im häuslichen Umfeld.   TED-Talk von Kate Darling (MIT): Why we have an emotional connection to robots.  TA-Swiss: Robotik in Betreuung und Gesundheitsversorgung, vdf Hochschulverlag 2013, S. 192.  JürgenHabermas(1981): Theorie des kommunikativen Handelns. Band 2 Zur Kritik der funktionalistischen Vernunft. 8. Aufl. Frankfurt/a.M 1981.  Martin Krammer: "Unser Schreibzeug arbeitet mit an unseren Gedanken". Beitrag der Universität Wien über Friedrich Nietzsche.  Stefan Krempl: Ethikrat: Erosion von Verantwortung bei Robotereinsatz in der Pflege verhindern (Artikel bei Heise vom 11.03.2020).  Thomas Fuchs: Verteidigung des Menschen. Grundfragen einer verkörperten Anthropologie, Suhrkamp 2020. 
Von der Idee, dass bald bewusste Roboter gebaut werden, ist der japanische Robotik-Experte Prof. Junichi Takeno von der Meiji University in Tokio überzeugt. Er selbst hat bereits Roboter konstruiert, die ihr Spiegelbild erkennen können. In der letzten offiziellen Folge unseres Podcasts Selbstbewusste KI erklärt er, welche beeindruckenden Experimente er bereits mit seinen Robotern durchgeführt hat. Fragensteller in dieser Folge: Jürgen Manner, Karlsruhe Autor: Karsten Wendland Redaktion: Robert Sinitsyn, Matthias Gerz Aufnahmeleitung: Karsten Wendland Produktion: Matthias Gerz Synchronsprecher: Konstantin Kleefoot Licence: CC-BY, DOI: https://doi.org/10.5445/IR/1000139706 In dieser Folge erwähnte Quellen: Buch von Junichi Takeno: Creation of a Conscious Robot. Mirror Image Cognition and Self-Awareness: https://www.taylorfrancis.com/books/mono/10.1201/b12780/creation-conscious-robot-junichi-takeno. Zusammenfassender Artikel über die Forschung von Junichi Takeno auf der Website der Meiji University: https://english-meiji.net/articles/132/. Artikel über den „Astro Boy“ bei SRF. Das Verständnis von Bewusstsein nach dem Philosoph und Mathematiker Edmund Husserl: https://rep.adw-goe.de/bitstream/handle/11858/00-001S-0000-002C-DCB9-B/9783110260601_AdW14_03_CHRISTIAN%20BEYER%20%20Husserls%20Konzeption%20des%20BewusstseinsTeil1.pdf?sequence=1 (Beitrag von Prof. Dr. Christian Beyer, Georg-August-Universität Göttingen). Buch des Physikers Michio Kaku: Future of the mind: https://www.researchgate.net/publication/295829741_Michio_Kaku_Future_of_the_mind. Experimente von Junichi Takeno im International Journal on Smart Sensing and Intelligent Systems 1(4) 2008: https://www.researchgate.net/publication/228740023_A_Robot_Succeeds_in_100_Mirror_Image_Cognition. Homepage von Junichi Takeno: http://www.rs.cs.meiji.ac.jp/en/member/takeno.html
Für den Autor Andreas Eschbach sind Menschen ohne Technologie gar nicht denkbar. Allerdings wird die Freiheit des Individuums durch Technologie sowohl ermöglicht wie auch bedroht, was er in seinen Erzählungen in unterschiedlichen Genres aufgreift und aufbereitet. Was wir heute zu „Bewusster KI“ diskutieren, ist in seinem Metier ein Grundmotiv mit langer Tradition. Er kann erzählen, wie mediale Vermittlung Computer und Roboter schon immer vermenschlicht hat, und weiß aus eigener Erfahrung, dass Programmcodes stets auch etwas über diejenigen spiegeln, die sie geschrieben haben. Fragensteller in dieser Folge: Dr. Hinrich Thölken, Botschafter und Sonderbeauftragter für Digitalisierung und digitale Transformation im Auswärtigen Amt Autor: Karsten Wendland Redaktion, Aufnahmeleitung und Produktion: Kayla Zoller Licence: CC-BY, DOI: https://doi.org/10.5445/IR/1000126701 In dieser Folge erwähnte Quellen: Isaac Asimov: Alle Robotergeschichten, Bastei Lübbe 2007. Artikel über den „Astro Boy“ bei SRF. Andreas Eschbach: NSA, Bastei Lübbe 2020. Andreas Eschbach Out-Trilogie: Black Out 2010, Hide Out 2011, Time Out 2012, Arena Verlag. Das von DeepMind entwickelte Computerprogramm AlphaGo, welches das Brettspiel Go spielt. Homepage von Andreas Eschbach: http://www.andreaseschbach.de/
Der Theologe Prof. Dr. Joachim Weinhardt, PH Karlsruhe, ordnet Fragen zu Künstlicher Intelligenz und Bewusstsein auch in naturwissenschaftliche und in ethische Kontexte ein. Aus biblischer Perspektive sei es nicht vorgesehen, dass der Mensch andere Geschöpfe erschafft. Grundsätzlich hält er es aber für möglich, dass Bewusstsein auch auf anderen materiellen Voraussetzungen basieren könnte als bei uns Menschen. Wie aber könnte man garantieren, dass ein künstlich geschaffenes Bewusstsein kein unglückliches Bewusstsein würde? Perspektivisch sollte man bereits Vorstufen von Entwicklungen verhindern, die möglicherweise in einem Take-Off enden könnten. Fragensteller in dieser Folge: Prof. Dr. Urs Andelfinger, Hochschule Darmstadt Autor: Karsten Wendland Redaktion, Aufnahmeleitung und Produktion: Annalena Hörth Licence: CC-BY, DOI: http://doi.org/10.5445/IR/1000126231 In dieser Folge erwähnte Quellen: Joachim Weinhardt: Gott und die Welt. Schöpfungslehre und Eschatologie, Kohlhammer 2019. Artikel bei Zeit online über die vom Robotikexperte Anthony Levandowski ins Leben gerufene KI-Kirche „Way of the future“ (vom 18.11.2017). Artikel von Alan M. Turing in „Mind“: „Computing Machinery and Intelligence“. Prof. Dr. Joachim Weinhardt auf der Website der Pädagogischen Hochschule Karlsruhe: https://www.ph-karlsruhe.de/personen/detail/Joachim_Weinhardt_945
Die Philosophin Dr. Janina Loh an der Universität Wien untersucht inklusive Denkansätze, an deren Ende es nicht mehr so wichtig ist, ob sich jemand als Mensch oder als Maschine bezeichnet. Die Autorin des suhrkamp-Buchs „Roboterethik“ geht emotionalen Bindungen zwischen Mensch und Roboter in unterschiedlichsten Anwendungsfeldern auf die Spur, sowie möglichen Verhältnissen, die zueinander entstehen können. Als kritische Posthumanistin regt sie an, auch bei der Herstellung von Robotern auf Diversität zu achten und vielfältige Roboter herzustellen. Fragensteller in dieser Folge: Jascha Bareis, M.A., Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT) Autor: Karsten Wendland Redaktion, Aufnahmeleitung und Produktion: Matthias Gerz Licence: CC-BY, DOI: https://doi.org/10.5445/IR/1000125862 In dieser Folge erwähnte Quellen: Janina Loh: Roboterethik. Eine Einführung, suhrkamp taschenbuch 2019. Artikel bei Zeit.de über die Roboterforscherin Kate Darling vom MIT und das Beispiel von Mienenrobotern. Thomas Nagel: Aufsatz "What is it like to be a bat?" (Wie ist es, eine Fledermaus zu sein?), 1974. Artikel bei ze.tt über eine Berlinerin, die eine Beziehung zu einem Modellflugzeug führt. Homepage von Janina Loh auf der Homepage der Universität Wien: https://ufind.univie.ac.at/de/person.html?id=61692
Für den Robotiker Prof. Dr. Antonio Chella, Leiter des Robotic Labs und des Forschungszentrums für Wissenstechnologien an der Universität von Palermo, geht Bewusstsein deutlich über das Gehirn hinaus. Für den Herausgeber des Journal of Artificial Intelligence and Consciousness kann nur eine empathische Maschine auch eine ethische Maschine sein. Deshalb sei es erstrebenswert, Maschinen mit Gefühlen zu bauen, und aus deren Verhalten schließlich auch mehr über unser eigenes phänomenales Bewusstsein erfahren zu können. Viele KI-Leute haben seiner Beobachtung nach kein Interesse an philosophischen Debatten, weswegen er versucht, praktische Brücken zwischen den Disziplinen zu bauen und interdisziplinäre Diskurse zu unterstützen. Fragensteller in dieser Folge: Prof. Dr. Armin Grunwald, Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT) Autor: Karsten Wendland Redaktion und Produktion: Annalena Hörth Aufnahmeleitung: Tobias Windmüller Synchronsprecher: Konstantin Kleefoot Licence: CC-BY, DOI: http://doi.org/10.5445/IR/1000125589 In dieser Folge erwähnte Quellen: Antonio Chella: Journal of Artificial Intelligence and Consciousness. Zitat von Woody Allen: “You rely too much on brain. The brain is the most overrated organ.“ Der US-amerikanische Science-Fiction-Film „Nummer 5 lebt“ (Englischer Originaltitel: „Short Circuit“), 1986. Artikel bei Zeit.de über den rassistischen Chat-Bot Tay (vom 24.03.2020). Das Science-Fiction-Drama Ex Machina von Alex Garland, 2015. Der Science-Fiction-Film 2001: Odyssee im Weltraum (Originaltitel: 2001: A Space Odyssey) von Stanley Kubrick, 1968. Der Schwarzweißfilm Frankenstein von Mary Shelley, 1931. Der Stummfilm Der Golem von Paul Wegener und Heinrich Galeen, 1914. Antonio Chella auf der Homepage der University of Palermo: https://www.icar.cnr.it/en/associati-di-ricerca/esterno-1/
Für den Neuwissenschaftler Prof. Dr. Christoph Koch, Chefwissenschaftler am Allen Institute für Gehirnforschung in Seattle, gibt es eine sehr enge Verbindung zwischen Gehirn und Bewusstsein. Er hält es nicht für möglich, die Strukturen des menschlichen Gehirns digital zu simulieren, wohl aber, dass man es irgendwann aus technischen Materialien wird nachbauen können. Bewusstsein sind für ihn jegliche Erfahrungen, Gefühle und Empfindungen, die letztlich immer mit dem Gehirn zu tun haben. So lieben wir auch nicht mit dem Herzen, sondern in Wirklichkeit mit dem Kopf. Fragensteller in dieser Folge: Prof. Dr.-Ing. Ralf Otte, Technische Hochschule Ulm Autor: Karsten Wendland Redaktion, Aufnahmeleitung und Produktion: Tobias Windmüller Synchronsprecher: Konstantin Kleefoot Licence: CC-BY, DOI: http://doi.org/10.5445/IR/1000125298 In dieser Folge erwähnte Quellen: Christof Koch: The feeling of life itself. Why consciousness is widespread but can’t be computed, MIT Press 2020. Aristoteles: Über die Seele. De Anima, Felix Meiner Verlag Hamburg 2017. Artikel über Floatation tanks bei Faz.net (vom 17.04.2017). Informationen über die Integrated Information Theory. Begriffserklärungen zu „CPU“ und „ALU“ bei ITWissen.info. Homepage von Christof Koch: https://christofkoch.com/ Christof Koch auf der Homepgae des Allen Institute for Brain Science Seattle: https://alleninstitute.org/what-we-do/brain-science/about/team/staff-profiles/christof-koch/
Für die Juristin Prof. Dr. Dr. Frauke Rostalski, Universität Köln und Mitglied des Deutschen Ethikrats, kann man KI-Robotern weder Schuld noch Verantwortung zuschreiben – zumindest nicht nach den heutigen Maßstäben und technischen Realisierungen. KI-Systeme können nur Teile unseres Denkens abbilden, und umgekehrt funktioniert der Mensch nicht nach Algorithmen. Allerdings wissen wir nicht, was noch kommt, und sollten verschiedene Zukünfte rechtzeitig vorausdenken. Zukünftige Gesellschaften etwa mit e-Personen sind schon heute debattierte Szenarien. Fragensteller in dieser Folge: Dr. Gerard Blommestijn, Physiker und Philosoph Autor: Karsten Wendland Redaktion: Kayla Zoller Aufnahmeleitung vor Ort im schönen Köln: Karsten Wendland Produktion: Kayla Zoller Licence: CC-BY, DOI: http://doi.org/10.5445/IR/1000124841 In dieser Folge erwähnte Quellen: Frauke Rostalski ist Mitglied im Deutschen Ethikrat. Artikel auf Welt.de: Ingenieur „heiratet“ seine selbstgebaute Robo-Freundin (vom 07.04.2017). Zitat des britischen Evolutionsbiologen Clinton Richard Dawkins: “We are survival machines – robot vehicles blindly programmed to preserve the selfish molecules known as genes. This is a truth which still fills me with astonishment.” (Aus seinem Buch „The Selfish Gene“, Oxford University Press: 1976). Artikel über das Libet-Experiment bei Planet Wissen. Der hippokratische Eid. Das Szenario des schwarzen Schwans nach dem Publizisten und Börsenhändler Nassim Nicholas Taleb. (Artikel bei Risknet.de vom 20.07.2020). Prof. Dr. Dr. Frauke Rostalski auf der Homepage der Universität zu Köln: https://rostalski.jura.uni-koeln.de/prof-dr-dr-frauke-rostalski
Für den Philosophen Prof. Dr. Thomas Metzinger von der Universität Mainz ist es keineswegs ausgeschlossen, dass Künstliche Intelligenz irgendwann Bewusstsein haben könnte. Schon jetzt sollten wir uns Gedanken über unsere Verantwortung und zur Ethik machen, etwa in Form einer globalen Charta mit KI-Regeln, die auch das Bewusstseinsthema umfassen. KI-Systeme lernen viel über uns Menschen lernen, müssen aber nicht immer an das Gemeinwohl gekoppelt sein. Es hängt von uns ab, unsere Digitale Souveränität wiederzuerlangen. Fragensteller in dieser Folge: Dipl.-Phys. Michael Mörike, Integrata-Stiftung für humane Nutzung der Informationstechnologie Autor: Karsten Wendland Redaktion, Aufnahmeleitung und Produktion: Robert Sinitsyn Licence: CC-BY, DOI: http://doi.org/10.5445/IR/1000124512 In dieser Folge erwähnte Quellen: René Descartes: Die Leidenschaft der Seele (Les passions de l’âme), L. Heimann 1870. The Minimal Phenomenal Experience (MPE) Project unter Leitung von Thomas Metzinger. Artikel von Thomas Metzinger bei Spektrum.de zu maschinellem Bewusstsein mit Bezug auf den amerikanischen Philosophen Hilary Putnam und seine Einstellungen zu Rechten von Robotern. Europäische High-Level Expert Group on Artificial Intelligence. Thomas Metzinger: Der Ego-Tunnel: eine neue Philosophie des Selbst. Von der Hirnforschung zur Bewusstseinsethik, Piper Verlag 2014. Digitalisierung und der Green Deal der EU-Kommission. Univ.-Prof. Dr. Thomas Metzinger auf der Homepage der Johannes Gutenberg-Universität Mainz: https://www.philosophie.fb05.uni-mainz.de/arbeitsbereiche/theoretische/thmetzinger/
Für den Technikhistoriker Christian Vater, der in Heidelberg und Karlsruhe forscht, hat Forschung zu KI archäologische Qualitäten. Er gräbt Fundstücken aus, die unser heutiges Verständnis von KI prägen, auch wenn sie zu ihrer Zeit anders gemeint waren. Er erklärt, aus welchem Blickwinkel heraus man das menschliche Bewusstsein als eine „Turing-Zwiebel“ mit leerem Kern auffassen konnte, und welche Rolle Forscherinnen in den frühen KI-Zeiten hatten.  Fragensteller in dieser Folge: Jennifer Heier, Head of UX-driven AI, SIEMENS Autor: Karsten Wendland Redaktion und Aufnahmeleitung im Außeneinsatz: Konstantin Kleefoot Produktion: Tobias Windmüller Licence: CC-BY, http://doi.org/10.5445/IR/1000124235 Im Podcast erwähnte Quellen: Eintrag über Zombies in der Stanford Encyclopedia of Philosophy. Hubert L. Dreyfus: What Computers Still Can’t Do. A Critique of Artificial Reason, MIT Press 1992. Nick Bostrom: Are you living in a computer simulation?, Philosophical Quaterly 2003. Artikel von Alan M. Turing in „Mind“: „Computing Machinery and Intelligence“. Alan M. Turing: On countable numbers. Die dramatisierte Filmbiografie über Alan M. Turing: The Imitation Game. Artikel über den Mathematiker und Kryptologie Irving John „Jack“ Good und seiner Idee der Superintelligenz bei Spektrum.de. Sein Aufsatz Speculations Concerning the First Ultraintelligent Machine von 1966.  Isaac Asimov: Alle Robotergeschichten, Bastei Lübbe 2007. Jennifer S. Light: When Computers Were Women, Technology and Culture 1999. Artikel über den „Astro Boy“ bei SRF. Gilles Deleuze, Félix Guattari: Rhizom, Merve Verlag 1977. Christian Vater auf der Homepage des Karlsruher Instituts für Technologie: https://www.geschichte.kit.edu/mitarbeiter_1906.php
loading
Kommentare 
Von Google Play herunterladen
Vom App Store herunterladen