Discover
KI - kurz und informativ, Klartext "to Go" in unter 5 Minuten
KI - kurz und informativ, Klartext "to Go" in unter 5 Minuten
Author: pyucation
Subscribed: 1Played: 35Subscribe
Share
© pyucation
Description
"KI - kurz und informativ" erklärt Künstliche Intelligenz verständlich, kompakt und ohne Fachchinesisch. In weniger als 5 Minuten erfahrt ihr als Entscheider in Wirtschaft und Verwaltung, worum es eigentlich wirklich geht - ohne Hype von den Grundlagen, über Anwendungen im Unternehmen bis hin zu den neusten Entwicklungen.
Was ist ein Large Language Model (LLM)? Was sind neuronale Netze? Welche Datenschutzanforderungen muss ich beachten? EU AI Act? Wie bereite ich meine Daten auf? All das und vieles mehr sind Themen unserer Podcast-Reihe. Viel Spaß beim Zuhören!
Was ist ein Large Language Model (LLM)? Was sind neuronale Netze? Welche Datenschutzanforderungen muss ich beachten? EU AI Act? Wie bereite ich meine Daten auf? All das und vieles mehr sind Themen unserer Podcast-Reihe. Viel Spaß beim Zuhören!
33 Episodes
Reverse
In dieser Folge sprechen wir über Bildgenerierung mit sog. Diffusion Models. Mit Hilfe der statistischen Diffusion können wir Bilder künstlich "verrauschen" und ein Model diesen Prozess umkehren lassen.Nach diesem Prinzip funktionieren heutzutage viele KI-Bildgeneratoren. Man muss dazu sagen, dass es mehrere Arten gibt, Bilder mit KI zu erzeugen. Diffusion Models ist eine Möglichkeit.Erfahre in der Folge, wie man das nun nutzten kann, um Text-zu-Bild-Modelle (Text-to-Image Models) zu erstellen.
Enterprise AI könnte die nächste große Phase der Künstlichen Intelligenz sein: KI, die nicht nur punktuell eingesetzt wird, sondern tief in die Prozesse eines Unternehmens integriert ist.Wie das konkret aussehen kann und welche Chancen sich daraus für Unternehmen ergeben, darüber spreche ich mit Axel Schultze und Christian Weh von der BlueCallom AG.Axel Schultze ist einer der erfolgreichsten Startup Accelerators und hat mehrere Unternehmen aufgebaut. Christian Weh, ursprünglich Chemiker und heute CEO eines Unternehmens im Bereich Krebsforschung, arbeitet gemeinsam mit Axel an neuen Lösungen im Enterprise-AI-Bereich.Doch Enterprise AI ist mehr als nur ein weiteres Software-Tool. Es geht um eine neue Form der Zusammenarbeit zwischen Menschen und intelligenten Systemen.Was bedeutet das für Unternehmen?Welche Rolle spielt der Mensch, wenn Produktivität immer stärker von KI geprägt wird?Und welche Fähigkeiten werden in Zukunft wirklich wichtig?Über diese und viele weitere Fragen sprechen wir in dieser Folge.In dieser Folge sprechen wir unter anderem über:was Enterprise AI eigentlich bedeutetwarum KI im Unternehmen mehr ist als Chatbotswelche Herausforderungen Unternehmen aktuell habenwelche Rolle der Mensch in einer KI-geprägten Arbeitswelt spielt
Heute sprechen wir im Anschluss an die Folge über Embeddings, wie ich die Ähnlichkeit zwischen Vektorembeddings berechnen kann (ganz einfach) und wie ich das nutze, um die Relevanz von Dokumenten zu bewerten.Denn genau diese Methode nutzt eine Technik namens RAG (Retrieval Augmented Generation), die es uns erlaubt, mit unseren Dokumenten zu "chatten". D. h. Fragen zu eigenen Dokumenten zu stellen, ohne dass ein Sprachmodell darauf trainiert wurde.Viele Unternehmen nutzen das bereits sehr ausgiebig in ihren Workflows und in dieser Folge lernt ihr, wie genau das Prinzip dahinter funktioniert.
ChatGPT versteht keine Wörter, denn Maschinen verstehen nur Zahlen. Diese Zahlen nennen wir Embeddings und in dieser Folge erfahrt ihr, was genau sie bedeuten und wie sie funktionieren. Ich erkläre es wie immer verständlich anhand einfacher und eingänglicher Beispiele.Embeddings sind die Grundlage dafür, dass Sprachmodelle uns überhaupt verstehen können. Aber darüber hinaus können wir mit Hilfe von Embeddings auch die Relevanz von Dokumenten bewerten. Kurz gesagt: Ohne Embeddings gäbe es keine moderne Künstliche Intelligenz, wie wir sie heute kennen.Schreibt gerne in die Kommentare, ob ihr nach der Folge eine Idee hättet, wie man die Ähnlichkeiten zwischen Wörtern berechnen könnte. Ich bin gespannt auf eure Ideen!
Heute gehen wir einen Schritt weiter und bauen auf die letzte Folge über AI Agents auf. Was bedeutet Agentic AI im Vergleich dazu? Wo kann man es Einsetzen und was sind die Risiken?Diesen Fragen widmen wir uns heute. Wie immer anhand von praktischen Beispielen.Basierend auf dieser Folge wird es eine Folge über das Model Context Protocol (MCP) geben.Link zum angesprochenen Agent-to-Agent-Protokoll (A2A): https://a2a-protocol.org/latest/Vielen Dank fürs Einschalten! :)
Heute geht es um AI Agents, also KI-Agenten. Keine Geheimagenten, sondern Software-Einheiten, die selbstständig Aktionen ausführen können. Wir klären, was eigentlich der Unterschied zwischen Large Language Models (LLMs) und AI Agents ist und warum das in der Praxis doch eine große Rolle spielen kann.Ein sehr interessantes Paper zur Abgrenzung von LLMs, AI Agents und Agentic AI (worum es in der nächsten Folge gehen wird) findet ihr hier: https://doi.org/10.48550/arXiv.2505.10468AI Agents bringen Küsntliche Intelligenz nochmal auf ein neues Level und bringen Sprachverarbeitung wirklich in die Praxis.Habt ihr bereits Agents bei euch im Einsatz? Schreibt es gerne in die Kommentare!Vielen Dank fürs Zuhören. Bleibt neugierig und kritisch! :)
Was haben Albanien, Nepal und Donald Trump gemeinsam? Sie haben mich auf die Idee eines internationalen KI-Streitrichters gebracht.Heute wage ich mich etwas aus dem üblichen Themenbereich hinaus und stelle mit einem kleinen Gedankenexperiment die Frage: Ist ein internationaler KI-Streitrichter möglich?Was wäre das überhaupt? Können wir uns Menschen überhaupt von einer KI "richten lassen"? Und welche Voraussetzungen müssten theoretisch dafür erfüllt sein?Zur Abwechslung etwas anderes. In der nächsten Folge gibt es wieder technisches Wissen zu Künstlicher Intelligenz, Machine Learning und Co.Viel Spaß beim Zuhören!
Im Anschluss an die letzte Folge über die KI-Wertschöpfungskette, schauen wir uns heute typische KI-Rollen an: Was ist eigentlich der Unterschied zwischen Data Scientist, Data Analyst, Data Engineer, Business Analyst und Machine Learning Engineer?Oft werden diese Rollen verwechselt und Stellenausschreibungen suchen ein andere Profil als der Titel eigentlich vermuten lässt. Um hier etwas Licht ins Dunkle zu bringen, habe ich diese Folge aufgenommen.Wir schauen uns an, was der Hauptfokus bzw. die Hauptverantwortung jeder Rolle in der Theorie ist und welchen Platz das entsprechend in der Wertschöpfungskette einnimmt.Viel Spaß beim Zuhören! :)
Daten in die KI und automatisch Wertschöpfung erzeugen. Diese Illusion haben viele und zugegebenermaßen klingt es schön, aber so einfach ist es leider nicht.Um mit Hilfe von Machine Learning und Künslticher Intelligenz Wertschöpfung betreiben zu können gibt es mindestens neun essentielle Schritte, die sorgfältig durchdacht und durchgeführt werden müssen. Von der Auswahl der Daten bis zur Business Adoption vergeht eine Menge Zeit.Worauf genau ihr bei der Einführung von KI achten müsst, erfahrt ihr in dieser Folge.Viel Spaß beim Zuhören und einen guten Start ins neue Jahr wünsche ich euch! :) Bleibt neugierig und kritisch.
Heute sprechen wir über KI-generierte Musik. Ist das heutzutage wirklich möglich? Ja! In der Folge zeige ich euch diesen Song aus den USA:https://youtu.be/UwKmDH83qo0?si=Rf7hfjsnr5rHRLap(„Walk my Walk“ von Breaking Rust)Dies soll der erste Teil einer weiteren Mini-Serie sein, in der wir uns damit beschäftigen, wie diese Technologie funktioniert. In dieser Folge geht es um die Grundlagen und die Frage: Wollen wir das überhaupt?Außerdem wartet am Ende der Folge ein eigener KI-Song auf euch. Bleibt also bis zum Ende dran und schreibt gerne in die Kommentare, wie ihr zu dem Thema steht!-Die in dieser Episode abgespielte Musik wurde mithilfe des KI-Dienstes Suno (suno.com) generiert.Gemäß den geltenden Nutzungsbedingungen des Anbieters liegen sämtliche Urheber- und Verwertungsrechte an diesem Musikstück bei Suno, Inc. bzw. den jeweiligen Rechteinhabern.Diese Podcast-Episode ist nicht werbefinanziert und verfolgt keine kommerziellen Zwecke.Die Verwendung der Musik erfolgt ausschließlich zu Informations- und Präsentationszwecken.
Heute geht es um ein Phänomen, das 2025 sehr populär geworden ist: Vibe Coding. Ich erkläre euch, was man unter diesem Begriff versteht, wie man mit KI Code schreiben kann und was die Gefahren dabei sein können.Am Ende gebe ich euch vier nützliche Tipps mit auf den Weg, wie ihr erfolgreicher KI nutzt, um kleinere Projekte und Prototypen umsetzen zu können.Viel Spaß beim Zuhören!
Heute feiern wir Geburtstag - am Sonntag wurde ChatGPT 3 Jahre alt und wir nutzen den besonderen Anlass, um zurückzuschauen: Was ist denn eigentlich alles so passiert bei OpenAI und ChatGPT?Und vor allem beantworten wir die Frage, was es mit Werbung bei ChatGPT auf sich hat. KI und Werbung sei laut Sam Altman "zutiefst verstörend". Das hat er zumindest 2024 gesagt.Ohnehin hat der enorme Wettbewerb mit Google, Anthropic und Co ihn dazu gezwungen, den "Code Red" auszurufen. Was das bedeutet und noch viel mehr erfahrt ihr in dieser Folge.Viel Spaß beim Zuhören. Bleibt wie immer neugierig und kritisch!
Kreativität: ein menschliches Privileg?In dieser besonderen Episode von „KI – kurz und informativ“ verlasse ich das gewohnte Format und lade euch zu einem kleinen Gedankenexperiment ein.Die letzten Folgen waren informationsreich und dicht – heute wird es persönlicher, entschleunigt und ein Stück philosophisch.Wir sprechen über die Frage, ob Menschen wirklich so grundlegend verschieden sind von künstlicher Intelligenz.Was macht uns kreativ?Sind wir mehr als die Summe unserer Erfahrungen – oder sind auch wir letztlich ein lebenslang trainiertes Modell aus Datenpunkten?Wie seht ihr das? Kann KI echte Kreativität besitzen – oder simuliert sie sie nur? Lasst es mich in den Kommentaren wissen.Viel Spaß beim Zuhören! :)
Wie verändert Künstliche Intelligenz die Cybersecurity und wie können Unternehmen sicher damit umgehen?In dieser Folge von „KI – kurz und informativ“ spreche ich mit Sascha Maier, einem der renommiertesten CISOs der Schweiz, über die aktuellen Herausforderungen, Risiken und Chancen rund um AI Security.Gemeinsam beleuchten wir u.a.:🔹Welche neuen Angriffsszenarien sind durch KI entstanden?🔹Wie können Unternehmen beim Thema AI Security starten?🔹Welche Rolle spielen Governance und Transparenz in dem Zusammenhang?🔹Wie können Unternehmen sich schützen?Sascha Maier gibt praxisnahe Einblicke aus dem Unternehmensalltag, spricht offen über typische Fehlannahmen und erklärt, wie Organisationen eine sichere KI-Strategie aufbauen können.Diese Episode ist ideal für alle, die sich mit KI, Cybersecurity, Unternehmenssicherheit, Data Governance oder digitalen Risiken beschäftigen.Viel Spaß beim Zuhören!Saschas Bücher:"Cyberresilienz in der Praxis": 978-3-658-49237-3 (eBook ISBN)"Geschäftsrisiko Cyber-Security": 978-3-658-32046-1 (eBook ISBN)zum Financial Times Video ("The AI rollout is here - and it's messy"): https://www.youtube.com/watch?v=GY_Ywqd3mzA
Heute schauen wir uns die revolutionäre Transformer-Architektur und die sogenannte Self-Attention an, auf der die meisten modernen Sprachmodelle basieren. Wir lernen also wie GPT & Co. im Detail funktionieren und warum sie so gute Antworten generieren können.Das Paper dazu aus dem Jahr 2017 findet ihr hier: https://doi.org/10.48550/arXiv.1706.03762Viel Spaß beim Zuhören! :)
Buzzword-Dschungel entzaubert: Tokens, Fine-Tuning, Parameter, Context Window - was bedeuten all diese Begriffe im Kontext von Large Language Models (LLM)?Darum geht es in dieser Folge. In Vorbereitung auf die nächste Folge, in der es um die sogenannte Transformer-Architektur gehen soll, möchte ich diese Grundbegriffe erklären.Tokenizer von OpenAI: https://platform.openai.com/tokenizer
Heute geht es zum einen um Nachhaltigkeitsaspekte bei der Nutzung und dem Training von ChatGPT und zum anderen darum, warum das eigentlich so ist. Woher kommen diese zum Teil sehr hohen Hardware-Anforderungen zum Betreiben von Sprachmodellen?Am Ende der Folge kennt ihr den Unterschied zwischen einer CPU und einer GPU, wisst, warum GPU energieintensiver sind und welche Einheiten wir zum Messen verwenden.Außerdem nenne ich ein paar Zahlen zum Energie- und Wasserverbrauch aus dieser Studie:https://www.lbbw-am.de/fileadmin/Studien/2024-06-14_Blickpunkt_KI_und_Nachhaltigkeit.pdfViel Spaß beim Zuhören! :)
KI gibt es doch erst seit ChatGPT - oder? Nein! Wie lange beschäftigt uns das Thema Künstliche Intelligenz eigentlich schon? Was waren die Anfänge und was gilt als die Geburtsstunde der KI?Mit diesem Thema befassen wir uns in dieser Folge. Schreibt gerne, welche Meilensteine ihr als nächstes erwartet und ob es vielleicht bald einen dritten KI-Winter geben könnte.Viel Spaß beim Hören! :)
Wow - was für eine erste Staffel. Wir haben so viele Themen angeschnitten. Umso sinnvoller fand ich es, zum Abschluss ein kleines Quiz für euch vorzubereiten. So könnt ihr euer Grundlagenwissen rund um Künstliche Intelligenz, Machine Learning und Deep Learning einmal testen.Das Quiz findet ihr hier: https://forms.gle/SybnpVx8ZwGeUof76Löst es gerne selbstständig und hört ggfs. nochmal in die einzelnen Folgen.Von mir ein fettes Dankeschön bis hierher. Es war eine spannende Reise und ich bin extrem motiviert weiterzumachen. In der nächsten Staffel erwarten euch neue und interessante Themen. Bleibt wie immer neugierig und kritisch.Bis zur nächsten Staffel! :) Euer Marc.
Künstliche Intelligenz bietet scheinbar grenzenlose Möglichkeiten. Doch auch solche Systeme haben Schwächen. Genau darüber sprechen wir in dieser Folge. Einige Herausforderungen moderner KI- und Machine-Learning-Systeme sind bspw.:Bias & FairnessDistribution ShiftOverfitting & UnderfittingHalluzinationen von SprachmodellenAnhand praktischer Beispiele und reallen Fällen, erfahrt ihr was diese Schwächen sind und was für Folgen sie haben können.Link zum ProPublica-Artikel: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithmLink zum Artikel mit dem Rechtsanwalt: https://www.tagesschau.de/wissen/technologie/ki-rechtsanwalt-100.html




