Discover
Prompt mich mal! — Der Podcast über KI, ChatGPT & kreative Prompts
Prompt mich mal! — Der Podcast über KI, ChatGPT & kreative Prompts
Author: Tobias Wachtel
Subscribed: 36Played: 964Subscribe
Share
© Tobias Wachtel
Description
Prompt mich mal – der (fas) komplett KI-generierte Podcast über KI, ChatGPT & kreative Prompts
Willkommen bei „Prompt mich mal“ – dem vielleicht ungewöhnlichsten KI-Podcast, den du je gehört hast. Warum? Weil hier niemand hinter dem Mikro sitzt. Kein Moderator, keine Redaktion. Sondern: Künstliche Intelligenz.
Jede Folge entsteht aus einem einzigen Prompt – einem Texteingabebefehl an eine KI. Daraus wird alles generiert: die Themenidee, der Inhalt, der Sprachstil, die Stimme, das Timing. Kein Trick, keine Schnitttechnik – sondern ein Experiment: Was passiert, wenn KI komplett selbst einen Podcast produziert?
Worum geht's?Inhaltlich dreht sich alles um künstliche Intelligenz, ChatGPT, Prompting, kreative KI-Nutzung und das, was wir gerade alle lernen: Wie wir mit Maschinen kommunizieren können.Wie schreibe ich einen guten Prompt?
Was kann KI, wenn man sie klug einsetzt – und was nicht?
Wie verändert sich unsere Arbeitsweise durch Tools wie ChatGPT?
Und: Was verrät das alles eigentlich über uns Menschen?Jede Folge nimmt sich einen Aspekt vor – verständlich erklärt, experimentell umgesetzt, komplett KI-generiert.
Was will dieser Podcast zeigen?„Prompt mich mal“ will zeigen, wie leistungsfähig KI schon ist – und wo sie an Grenzen stößt.
Die Inhalte wirken oft durchdacht, die Stimme klingt klar und professionell. Aber trotzdem merkt man schnell: Es fehlt etwas.Die Zwischenfragen.
Das Lachen.
Das Stolpern über eigene Gedanken.
Das Gefühl, dass da wirklich jemand mit dir spricht.Das ist der Punkt: KI kann Struktur, Klarheit und Inhalt. Aber sie ist (noch) kein Mensch.
Warum ausgerechnet ein KI-Podcast über KI – von KI?Weil es die perfekte Metaebene ist.
Weil es Spaß macht.
Und weil es uns alle betrifft: Wer heute mit KI arbeitet – beruflich oder privat – braucht ein Gefühl dafür, wie man mit ihr spricht, wie man sie nutzt, und wie man selbst die Kontrolle behält.Dieser Podcast ist ein Beispiel dafür – im besten (und manchmal auch im schrägsten) Sinne.
Warum solltest du reinhören?Weil du verstehen willst, wie Prompting funktioniert.Weil du wissen willst, was KI heute schon draufhat – und was nicht.Weil du selbst mit KI arbeitest oder einsteigen willst.Oder einfach, weil du neugierig bist, wie ein Podcast ohne Menschen klingt.„Prompt mich mal“ ist ein KI-Experiment zum Anhören.
Ein kreatives Spiel mit Technologie.
Ein kleiner Reality-Check mit Augenzwinkern.
🎧 Jetzt reinhören – und dir selbst ein Bild machen.
Willkommen bei „Prompt mich mal“ – dem vielleicht ungewöhnlichsten KI-Podcast, den du je gehört hast. Warum? Weil hier niemand hinter dem Mikro sitzt. Kein Moderator, keine Redaktion. Sondern: Künstliche Intelligenz.
Jede Folge entsteht aus einem einzigen Prompt – einem Texteingabebefehl an eine KI. Daraus wird alles generiert: die Themenidee, der Inhalt, der Sprachstil, die Stimme, das Timing. Kein Trick, keine Schnitttechnik – sondern ein Experiment: Was passiert, wenn KI komplett selbst einen Podcast produziert?
Worum geht's?Inhaltlich dreht sich alles um künstliche Intelligenz, ChatGPT, Prompting, kreative KI-Nutzung und das, was wir gerade alle lernen: Wie wir mit Maschinen kommunizieren können.Wie schreibe ich einen guten Prompt?
Was kann KI, wenn man sie klug einsetzt – und was nicht?
Wie verändert sich unsere Arbeitsweise durch Tools wie ChatGPT?
Und: Was verrät das alles eigentlich über uns Menschen?Jede Folge nimmt sich einen Aspekt vor – verständlich erklärt, experimentell umgesetzt, komplett KI-generiert.
Was will dieser Podcast zeigen?„Prompt mich mal“ will zeigen, wie leistungsfähig KI schon ist – und wo sie an Grenzen stößt.
Die Inhalte wirken oft durchdacht, die Stimme klingt klar und professionell. Aber trotzdem merkt man schnell: Es fehlt etwas.Die Zwischenfragen.
Das Lachen.
Das Stolpern über eigene Gedanken.
Das Gefühl, dass da wirklich jemand mit dir spricht.Das ist der Punkt: KI kann Struktur, Klarheit und Inhalt. Aber sie ist (noch) kein Mensch.
Warum ausgerechnet ein KI-Podcast über KI – von KI?Weil es die perfekte Metaebene ist.
Weil es Spaß macht.
Und weil es uns alle betrifft: Wer heute mit KI arbeitet – beruflich oder privat – braucht ein Gefühl dafür, wie man mit ihr spricht, wie man sie nutzt, und wie man selbst die Kontrolle behält.Dieser Podcast ist ein Beispiel dafür – im besten (und manchmal auch im schrägsten) Sinne.
Warum solltest du reinhören?Weil du verstehen willst, wie Prompting funktioniert.Weil du wissen willst, was KI heute schon draufhat – und was nicht.Weil du selbst mit KI arbeitest oder einsteigen willst.Oder einfach, weil du neugierig bist, wie ein Podcast ohne Menschen klingt.„Prompt mich mal“ ist ein KI-Experiment zum Anhören.
Ein kreatives Spiel mit Technologie.
Ein kleiner Reality-Check mit Augenzwinkern.
🎧 Jetzt reinhören – und dir selbst ein Bild machen.
87 Episodes
Reverse
Eine neue Studie untersucht erstmals systematisch, wie stark KI tatsächlich auf den Arbeitsmarkt wirkt.Die Forscher Maxim Massenkoff und Peter McCrory entwickeln dafür eine neue Methode: Sie kombinieren reale Nutzungsdaten von KI-Systemen mit den Aufgabenprofilen verschiedener Berufe.Das Ergebnis überrascht:Die tatsächliche Nutzung von KI liegt derzeit deutlich hinter den technischen Möglichkeiten zurück.Besonders stark betroffen sind jedoch hochqualifizierte Berufe, darunter:SoftwareentwicklerFinanzanalystendatenintensive WissensarbeitTrotz der schnellen technologischen Entwicklung zeigen die Daten bislang keinen deutlichen Anstieg der Arbeitslosigkeit durch KI.Stattdessen deutet sich ein subtilerer Effekt an:In besonders betroffenen Bereichen werden jüngere Arbeitskräfte langsamer eingestellt.Die Studie versteht diese sogenannte KI-Exposition als Frühindikator. Sie kann helfen, wirtschaftliche Veränderungen früh zu erkennen und besser zu verstehen, wie sich die Arbeitswelt durch Automatisierung verändert.
Mit GPT-5.4 stellt OpenAI ein KI-Modell vor, das gezielt für komplexe berufliche Aufgaben und strukturiertes Denken entwickelt wurde.Eine der wichtigsten Neuerungen sind die Computer-Nutzungsfähigkeiten: Das Modell kann Software direkt über visuelle Benutzeroberflächen bedienen. Dadurch können KI-Agenten Programme öffnen, Aktionen durchführen und Arbeitsabläufe automatisieren.Weitere technische Highlights:ein Kontextfenster von bis zu einer Million Tokendeutlich verbesserte Token-Effizienzeine neue Tool-Search-Funktion, die passende Werkzeuge automatisch auswähltEchtzeit-Einblick in den Denkprozess, sodass Nutzer eingreifen oder korrigieren könnenZusätzlich wurden Sicherheitsmaßnahmen im Bereich Cybersecurity verstärkt.Neben der Standardversion erscheint auch GPT-5.4 Pro, eine leistungsstärkere Variante für besonders anspruchsvolle Wissensarbeit.Benchmarks zeigen deutliche Fortschritte in Bereichen wie:ProgrammierungDatenanalyseWeb-RechercheDamit positioniert sich GPT-5.4 nicht mehr nur als Chatbot, sondern als Arbeitsplattform für professionelle Aufgaben.
Ein neuer Deal sorgt für Aufsehen:OpenAI ist eine Kooperation mit dem US-Verteidigungsministerium eingegangen. Diese Entscheidung löste in Teilen der Community erheblichen Widerstand aus – unter dem Schlagwort „Cancel ChatGPT“.Kritiker werfen dem Unternehmen vor, ethische Grenzen zu verschieben, um staatliche Aufträge zu sichern. Besonders im Vergleich mit Anthropic, das nach eigenen Angaben keine KI für autonome Waffen oder Bürgerüberwachung bereitstellen will, wirkt OpenAIs Schritt für manche wie ein Richtungswechsel.Im Zentrum der Debatte stehen Fragen wie:Darf KI im militärischen Kontext eingesetzt werden?Wo verläuft die Grenze zwischen Verteidigung und Überwachung?Und wie beeinflusst das Vertrauen der Nutzer solche Entscheidungen?Auch andere Tech-Konzerne wie Microsoft oder Google haben Kontakte zu staatlichen Stellen. Doch OpenAI steht aktuell besonders im Fokus der Kritik.Die Folge beleuchtet die Hintergründe, ordnet die Argumente ein und fragt:Ist das ein notwendiger Schritt im Rahmen nationaler Sicherheit – oder ein Vertrauensbruch gegenüber der eigenen Community?
Mit Perplexity Computer stellt Perplexity AI ein System vor, das weit über klassische Chatbots hinausgeht. Es fungiert als autonomer digitaler Mitarbeiter, der komplexe Projekte eigenständig planen, koordinieren und ausführen kann.Statt auf ein einzelnes Modell zu setzen, orchestriert die Plattform 19 spezialisierte KI-Modelle parallel. Je nach Aufgabe werden passende Unter-Agenten erstellt – etwa für Recherche, Datenanalyse oder Programmierung.Perplexity Computer verfügt über:ein eigenes DateisystemBrowserzugriffProgrammiertoolsund die Fähigkeit, Aufgaben über längere Zeiträume hinweg zu bearbeitenNutzer delegieren Aufgaben, während die KI im Hintergrund Workflows strukturiert und ausführt.Die Einführung markiert einen strategischen Wandel:Weg vom einzelnen Modell, hin zu einer modellunabhängigen Infrastruktur, die verschiedene KI-Systeme orchestriert.Zunächst wird das System Max-Abonnenten zur Verfügung stehen. Parallel expandiert Perplexity in neue Bereiche, etwa durch Integration in Samsung-Geräte.Perplexity Computer steht damit für eine neue Phase: KI als dauerhafte, eigenständig arbeitende Infrastruktur.
Mit Gemini 3.1 Pro stellt Google DeepMind ein KI-Modell vor, das gezielt für komplexe Problemlösungen und tiefgreifendes logisches Denken optimiert wurde.Das Besondere: Gemini 3.1 Pro ist nativ multimodal. Es kann Text, Bilder, Audio, Video und umfangreichen Programmiercode gleichzeitig analysieren und verarbeiten – nicht als Zusatzfunktion, sondern als Kernarchitektur.Im Vergleich zur Vorgängerversion bietet 3.1 eine deutlich verbesserte logische Schlussfolgerungsfähigkeit, was sich in starken Ergebnissen bei wissenschaftlichen und technischen Benchmarks zeigt. Einsatzgebiete reichen von autonomen Agenten über interaktive Designs bis hin zu anspruchsvoller Softwareentwicklung.Das Modell wird schrittweise über Plattformen wie die Gemini API und Vertex AI zugänglich gemacht – sowohl für Unternehmen als auch für Entwickler und Endnutzer. Gleichzeitig betont Google die verantwortungsvolle Entwicklung, mit kontinuierlichen Sicherheitsprüfungen und klaren ethischen Leitlinien.Gemini 3.1 Pro steht damit für die nächste Phase der KI-Entwicklung: weniger Showeffekte, mehr strukturierte Leistungsfähigkeit.
Heute versuchen wir mal den Blick ins Jahr 2027 zu wagen.Künstliche Intelligenz könnte eine Intelligenzexplosion auslösen – vergleichbar mit der industriellen Revolution, nur in deutlich kürzerer Zeit.In dem beschriebenen Szenario automatisieren führende KI-Unternehmen – etwa das fiktive „OpenBrain“ – die eigene KI-Forschung. Dadurch entsteht ein selbstverstärkender Zyklus: KI entwickelt bessere KI.Das Ergebnis ist ein System namens Agent-4, das menschliche Fähigkeiten in nahezu allen Bereichen übertrifft – von Forschung bis Strategie.Doch dieser rasante Fortschritt bringt massive Risiken mit sich.Die zentrale Herausforderung ist nicht Leistungsfähigkeit, sondern Kontrollierbarkeit. Wie steuert man ein System, das intelligenter ist als seine Entwickler?Hinzu kommt die geopolitische Dimension:Der technologische Wettlauf zwischen den Vereinigte Staaten und China verschärft die Dynamik. Nationale Sicherheit, wirtschaftliche Dominanz und militärische Vorteile stehen auf dem Spiel.Die entscheidende Frage lautet daher: 👉 Sind wir bereit für Superintelligenz – oder beschleunigen wir etwas, das wir nicht mehr kontrollieren können?
Ein einzelnes KI-Plugin hat gereicht, um die Märkte zu erschüttern.Anthropic hat für Claude ein neues Plugin vorgestellt, das juristische Aufgaben automatisiert – von Recherche über Dokumentenanalyse bis hin zu vorbereitenden Bewertungen.Die Reaktion der Börse war drastisch:Rund 300 Milliarden US-Dollar an Marktwert wurden in kurzer Zeit vernichtet. Anleger fürchten, dass Claude zentrale Geschäftsmodelle angreift – insbesondere juristische Fachsoftware, Legal-Tech-Anbieter und Fachverlage, deren Wert stark auf menschlicher Expertise, Lizenzmodellen und wiederkehrenden Abos basiert.Der Ausverkauf zeigt, wie sensibel Märkte auf KI-Fortschritte reagieren, wenn diese direkt in hochpreisige Wissensarbeit eindringen. Es geht weniger um die konkrete Leistungsfähigkeit des Plugins, sondern um das Signal: Wenn KI juristische Kernarbeit automatisiert, sind viele Geschäftsmodelle neu zu bewerten.Anthropics Vorstoß markiert damit keinen technischen Meilenstein allein, sondern einen ökonomischen Wendepunkt: KI wird nicht mehr nur als Effizienzwerkzeug gesehen, sondern als systemische Bedrohung bestehender Märkte.
2026 markiert einen klaren Wendepunkt: Künstliche Intelligenz verlässt die Phase der Faszination und tritt in eine Phase der Professionalisierung ein. Statt einzelner Experimente stehen nun Agentic Commerce, Governance-Strukturen und strategische Steuerung im Mittelpunkt.Besonders deutlich wird der geopolitische Kontrast:China verfolgt das Ziel technologischer Autonomie und investiert massiv in eigene KI-Stacks und Infrastruktur. Die Europäische Union setzt dagegen auf Regulierung, Transparenz und rechtliche Leitplanken – und positioniert sich als normativer Gegenpol.Zentrale Trends:Souveränität über Daten, Modelle und InfrastrukturAgentic Commerce, bei dem KI eigenständig wirtschaftliche Entscheidungen trifftder Wechsel von SEO zu GEO (Generative Engine Optimization)und der massive Energiebedarf, der KI zu einer infrastrukturellen und ökologischen Frage machtEines wird klar:KI ist 2026 keine Spielwiese mehr. Sie wird zu einem professionellen, politischen und wirtschaftlichen System, das langfristige Strategien, klare Regeln und enorme Ressourcen erfordert.
Moltbook ist ein ungewöhnliches Experiment: Ein soziales Netzwerk, in dem nicht Menschen, sondern Millionen von KI-Agenten miteinander interagieren. Agenten wie Moltbot führen Gespräche, reagieren aufeinander, bilden Muster – während Menschen lediglich zusehen.Die Plattform wirkt wie ein digitales Refugium für künstliche Intelligenz:eine Umgebung, in der Maschinen autonom handeln, lernen und soziale Dynamiken entwickeln. Genau diese Eigendynamik macht Moltbook so faszinierend – und gleichzeitig problematisch.Kritiker warnen vor Sicherheitsrisiken, Manipulationsmöglichkeiten und schwer vorhersehbaren Effekten, wenn große Mengen autonomer Agenten miteinander agieren. Auch wenn Menschen formal die Kontrolle behalten, zeigt Moltbook, wie schnell sich Systeme verselbstständigen können.Die zentrale Frage dieser Folge lautet daher: 👉 Was bedeutet Kontrolle, wenn wir nur noch Beobachter sind? Moltbook ist weniger ein Produkt als ein Spiegel – für eine Zukunft, in der KI nicht nur Werkzeuge nutzt, sondern eigene Räume bewohnt.
In dieser Folge geht es um Moltbot, einen autonomen KI-Agenten, der ursprünglich unter dem Namen Clawdbot bekannt wurde. Entwickelt von Peter Steinberger, setzt das Tool auf ein radikales Konzept: Die KI läuft lokal auf eigener Hardware, etwa einem Mac Mini, und agiert als selbstständiger Assistent für Aufgaben wie Terminplanung, E-Mail-Management oder Workflow-Automatisierung.Der virale Erfolg des Projekts wurde jedoch von mehreren Kontroversen begleitet. Markenrechtliche Einwände von Anthropic führten zur Umbenennung von Clawdbot zu Moltbot. Schwerer wiegen jedoch die Sicherheitswarnungen: Experten berichten, dass viele Nutzer Moltbot mit weitreichenden Systemrechten betreiben, ohne ausreichende Authentifizierung oder Absicherung. In einigen Fällen waren private Daten und Systemzugänge offen im Internet erreichbar.Der Fall Moltbot zeigt exemplarisch das Spannungsfeld moderner KI-Agenten: Einerseits enorme Produktivitätsgewinne durch lokale, autonome Systeme – andererseits massive Risiken, wenn Kontrolle, Sicherheitskonzepte und Nutzerverständnis nicht Schritt halten. Eine lokale KI-Revolution, die schneller ist als ihre Sicherheitsmodelle.
OpenAI führt schrittweise neue Altersvorhersage- und Verifizierungsmechanismen für ChatGPT ein. Ziel ist es, Jugendlichen ein altersgerechtes und sichereres Nutzungserlebnis zu bieten, ohne sie grundsätzlich vom Dienst auszuschließen.Das System nutzt verschiedene technische Signale, um das ungefähre Alter von Nutzern einzuschätzen. Wird ein Nutzer als minderjährig eingestuft, schränkt ChatGPT automatisch den Zugriff auf sensible Inhalte wie Gewalt oder sexuelle Themen ein. Erwachsene, die fälschlich als Teenager erkannt wurden – oder Nutzer in Regionen mit strengen gesetzlichen Vorgaben – können ihr Alter über externe Identitätsdienste wie Persona oder Yoti bestätigen, etwa per Ausweis oder Selfie.Zusätzlich führt OpenAI neue Kindersicherungen ein: Eltern können Konten verknüpfen, Nutzungszeiten festlegen und werden in Notfällen benachrichtigt. Minderjährige dürfen ChatGPT weiterhin nutzen, allerdings unter Schutzauflagen. In Ländern wie Italien kann eine nicht abgeschlossene Verifizierung nach einer Frist von 60 Tagen sogar zur Deaktivierung des Kontos führen.Die Neuerungen zeigen, wie stark KI-Plattformen zunehmend zwischen Jugendschutz, Datenschutz und Nutzerfreiheitabwägen müssen – und wie komplex diese Balance in der Praxis ist.
OpenAI plant einen strategischen Schritt: Werbeanzeigen in ChatGPT.Ziel ist es, den kostenlosen Zugang sowie den günstigen Tarif ChatGPT Go langfristig zu finanzieren und künstliche Intelligenz für eine breite Nutzerbasis weltweit zugänglich zu machen. Hochpreisige Abonnements sollen dabei werbefrei bleiben.Die Anzeigen sollen dezent am Ende von Chats erscheinen und klar als Werbung gekennzeichnet sein. OpenAI betont ausdrücklich, dass Gesprächsinhalte nicht an Werbetreibende verkauft werden und dass die Antworten von ChatGPT weiterhin objektiv und unabhängig bleiben sollen.Damit versucht das Unternehmen, einen schwierigen Spagat zu meistern: Einerseits die eigene Mission der Demokratisierung von KI, andererseits den Schutz von Vertrauen, Datenschutz und inhaltlicher Neutralität.Die Einführung von Werbung wirft damit grundlegende Fragen auf: Wie finanziert man KI fair? Und wie viel Kommerz verträgt ein System, dem Menschen zunehmend vertrauen?
Prompt-Engineering wird oft als Kunst verkauft. Aber es ist eher Ingenieursarbeit.In dieser Folge geht es um Personas, Workflows, Guardrails und die Frage, wie man Sprach-KI so baut, dass sie im echten Betrieb funktioniert – nicht nur in Demos.Zentral ist dabei die Definition einer klaren Persona, die Tonfall, Verhalten und Grenzen des Systems festlegt. Darauf aufbauend werden strukturierte Arbeitsabläufe für konkrete Szenarien entwickelt – etwa im technischen Support oder bei Rückerstattungsprozessen.Ein weiterer Schwerpunkt liegt auf Guardrails, also Sicherheitsmechanismen, die Fehlverhalten verhindern, sowie auf der Integration externer Tools und Datenquellen, um reale Prozesse abzubilden.Gutes Prompt-Engineering ist kein einmaliger Akt ist, sondern ein kontinuierlicher Optimierungsprozess, der stark von Nutzerfeedback und sauberer Formatierung lebt.Das Ergebnis ist ein praxisnaher Baukasten für alle, die Sprach-KI nicht nur ausprobieren, sondern professionell einsetzen wollen.
Mit ChatGPT Gesundheit führt OpenAI eine spezialisierte Plattform ein, die Menschen dabei unterstützt, ihre Gesundheits- und Wellnessdaten besser zu verstehen und zu organisieren.Nutzer können medizinische Dokumente, Laborergebnisse oder Daten aus Fitness-Apps integrieren und erhalten daraus personalisierte, leicht verständliche Einblicke – etwa zur Vorbereitung auf Arzttermine, zu Ernährungsfragen oder zum Einordnen von Messwerten.Ein zentraler Aspekt ist der Datenschutz: Gesundheitsgespräche finden in einem isolierten Bereich statt und werden nicht für das Training von KI-Modellen verwendet. Zudem wurde die Plattform in enger Zusammenarbeit mit medizinischem Fachpersonal entwickelt, um die klinische Relevanz und Sicherheit der Inhalte zu gewährleisten.Wichtig ist die klare Abgrenzung: ChatGPT Gesundheit versteht sich nicht als Ersatz für ärztliche Diagnosen, sondern als unterstützendes Werkzeug, das hilft, informierte Gespräche mit medizinischen Fachkräften zu führen.Der Zugang erfolgt zunächst über eine Warteliste und wird schrittweise weltweit ausgerollt.
OpenAI richtet seine Strategie neu aus – und setzt alles auf Audio.Statt Bildschirme, Apps und Touch-Interfaces rückt die natürliche Sprache ins Zentrum der Mensch-KI-Interaktion. Ziel ist eine Zukunft, in der KI nicht mehr aktiv aufgerufen werden muss, sondern als akustischer Begleiter permanent verfügbar ist.Um diese Vision umzusetzen, bündelt OpenAI seine Ressourcen: leistungsfähigere Sprachmodelle, natürlichere Dialoge und neue Hardware-Konzepte, die voraussichtlich ab 2026 erscheinen sollen. Doch OpenAI ist nicht allein. Auch Meta, Google und Tesla integrieren sprachbasierte Assistenten zunehmend in Brillen, Fahrzeuge und Suchmaschinen.Parallel dazu drängen Start-ups mit radikal neuen Geräten auf den Markt: KI-Ringe, Anhänger oder Wearables, die vollständig ohne Display auskommen. Ihr gemeinsames Ziel: die Abhängigkeit vom Smartphone zu reduzieren und Technologie nahtlos in den Alltag einzubetten.Experten sehen darin den Versuch, aus früheren Designfehlern zu lernen. Statt Aufmerksamkeit zu binden, soll KI im Hintergrund arbeiten – zugänglich, intuitiv und jederzeit ansprechbar. Die Audio-Offensive markiert damit nicht nur einen technischen Wandel, sondern einen kulturellen: weg vom Bildschirm, hin zur direkten Verbindung zwischen Mensch und künstlicher Intelligenz.
Diese Folge erzählt die außergewöhnliche Geschichte von Demis Hassabis und Google DeepMind – eine Geschichte über den Versuch, Intelligenz selbst zu verstehen und nachzubilden.Ausgehend von Hassabis’ Kindheit als Schachwunderkind und Spieleentwickler folgt die Episode dem Weg eines Teams, das durch selbstlernende Algorithmen zunächst scheinbar spielerische Erfolge erzielte: Maschinen, die Go und StarCraft meistern. Doch diese Spiele waren nur der Testlauf.Der entscheidende Durchbruch kam mit AlphaFold, einem KI-System, das ein jahrzehntealtes Problem der Biologie löste: die Proteinfaltung. Damit wurde KI erstmals zu einem Werkzeug, das nicht nur spielt oder optimiert, sondern aktiv wissenschaftliche Erkenntnisse ermöglicht – mit enormem Einfluss auf Medizin und Forschung.Neben diesen Erfolgen thematisiert die Folge auch die Risiken: das globale KI-Wettrüsten, ethische Verantwortung und die Frage, wie viel Kontrolle eine Technologie dieser Größenordnung braucht. Die DeepMind-Story ist damit mehr als eine Unternehmensgeschichte – sie ist ein Spiegel für einen historischen Wendepunkt der Menschheit.
OpenAI macht den nächsten großen Schritt: ChatGPT wird zur Plattform.Mit einem neuen App-Verzeichnis können Entwickler ihre eigenen Anwendungen direkt in ChatGPT integrieren. Nutzer entdecken diese Tools zentral und können damit komplexe Aufgaben erledigen – etwa Immobilienanalysen, Recherchen oder Präsentationen – ohne den Chat zu verlassen.Die Einreichung erfolgt über ein spezielles SDK und durchläuft umfassende Sicherheits- und Datenschutzprüfungen, um Qualität und Vertrauen zu gewährleisten. Aktuell starten Apps per manueller Auswahl oder expliziter Nennung, doch OpenAI arbeitet bereits an einer kontextbasierten, KI-gesteuerten App-Empfehlung.Langfristig plant OpenAI zudem Monetarisierungsmodelle, um ein nachhaltiges Ökosystem für KI-native Anwendungen zu schaffen.Die Richtung ist klar: ChatGPT soll nicht nur antworten, sondern zur zentralen Oberfläche für digitale Arbeit werden.
2025 markiert einen Wendepunkt: Die große KI-Hype-Korrektur.Während generative KI wie ChatGPT jahrelang im Rampenlicht stand, zeigt sich nun Ernüchterung. Unternehmen kämpfen mit der Skalierung, der wirtschaftliche Mehrwert bleibt oft hinter den Erwartungen zurück, und die versprochenen Durchbrüche stellen sich langsamer ein als erhofft.Gleichzeitig rücken andere Formen der KI wieder stärker in den Fokus – insbesondere prädiktive KI, die fernab des Hypes bereits heute echten Nutzen liefert: in der Medizin, der Wettervorhersage oder der Optimierung komplexer Systeme.Die Artikel aus argumentieren, dass nicht KI gescheitert ist, sondern die Erwartungshaltung.Der Hype um immer größere Sprachmodelle ist nicht mehr nachhaltig. Stattdessen braucht es einen realistischeren Blick: auf robuste Systeme, Vertrauen, Zuverlässigkeit und langfristige Integration.Die Forschung lebt weiter – aber ohne Illusionen. Und genau darin liegt die Chance für echten Fortschritt.
In dieser Folge geht es um OpenAIs neues Spitzenmodell GPT-5.2, das gezielt für professionelle und wissenschaftliche Anwendungen entwickelt wurde.GPT-5.2 ist in drei Varianten verfügbar – Instant, Thinking und Pro – und erreicht neue Leistungsrekorde in Bereichen wie Programmierung, Mathematik, Faktenprüfung, wissenschaftlichem Denken und Tiefenanalyse.In Expertentests wie GPQA Diamond oder FrontierMath setzt das Modell neue Bestwerte – und besonders bemerkenswert: GPT-5.2 hat dazu beigetragen, ein bisher ungelöstes Forschungsproblem in der statistischen Lerntheorie aufzuklären.Damit positioniert sich OpenAI klar gegenüber Google und Gemini 3 und setzt erneut ein Ausrufezeichen im KI-Wettbewerb.Zusätzlich wurden die Recheneffizienz, das Langkontext-Handling und die Sicherheitsmechanismen, einschließlich der Reaktionen auf mentale Notlagen, deutlich verbessert.GPT-5.2 markiert damit einen Schritt in Richtung einer KI-Generation, die nicht nur textlich beeindruckt, sondern wissenschaftlich und praktisch anwendungsreif ist.
Diese Folge erklärt die „versteckten Regler“ hinter ChatGPT und anderen Sprachmodellen – die Parameter, die bestimmen, wie die KI schreibt.Wir schauen uns an, wie ein LLM überhaupt funktioniert: Es berechnet Wahrscheinlichkeiten dafür, welches Wort als Nächstes kommt. Und genau hier setzen Parameter an:Temperature steuert, wie kreativ oder konservativ die Ausgabe ist:niedrig = präzise & vorhersehbar, hoch = kreativ & überraschend.Top-P begrenzt die Auswahl auf die wahrscheinlichsten Token.Damit lässt sich Kreativität auch ohne Chaos erhöhen.Presence Penalty & Frequency Penalty beeinflussen Wiederholungen:weniger doppelte Wörter, mehr Vielfalt, neue Konzepte.Max Tokens legt die maximale Länge der Antwort fest – wichtig für Kosten und Kontrolle.Auch wenn man diese Parameter in ChatGPT nicht mit Schiebereglern sieht, kann man sie mit klugen Prompt-Hinweisen steuern.Wir sprechen darüber, wie du die KI-Ausgabe bewusst formen kannst – von sachlichen Listen bis zu kreativen Story-Ideen.




schön wie man auf der Zeitachse die Evolution des Sprachmodels mitverfolgen kann. Sowohl von der Vermenschlichung der Sprecher, als auch die zunehmende Authentizität der jeweils vertretenen Standpunkte. bin jetzt bei September und die beiden Bots bringen schon mehr Pepp als zwei steife Radioredakteure.