DiscoverDatendurst mit Tim Ebner
Datendurst mit Tim Ebner
Claim Ownership

Datendurst mit Tim Ebner

Author: Tim Ebner

Subscribed: 1Played: 30
Share

Description

Nichts ist schlimmer als kundenunfreundliche Customer Journeys. Brüche zwischen Kanälen, ungehörtes Feedback oder der mangelnde Blick über den Tellerrand tun einfach weh. Deshalb gibt es jetzt Datendurst. Ein Podcast, in dem wir lernen, solche Schwachstellen in der Customer Journey aufzuspüren, mit Daten analysierbar machen und ganz gezielt zu optimieren. Viel Spaß beim Zuhören!
54 Episodes
Reverse
00:00 Intro und Vorschau00:45 Community-News & Hörerfeedback02:12 Vorstellung von Britta Behrens03:11 [Anzeige] Masterclass Business Automation Manager04:31 Automatisierung auf LinkedIn »und ich bin auf Bali«07:12 Warum vollständige Automatisierung keine gute Idee ist09:52 KI-Content auf LinkedIn: Zahlen & Realität11:00 Seelenloser Content und fehlende Wertschätzung13:37 Woran erkennt man KI-Posts?16:06 Engagement Pods & Fake-Reichweite18:18 Thumbstopper & Aufmerksamkeit im Feed21:30 Automatisierte Kontaktanfragen23:27 Strategisches Networking statt Massenansprache24:24 Wie der LinkedIn-Algorithmus wirklich funktioniert30:45 AI-Slop: Content-Müll im Feed31:30 Warum schlechter Content trotzdem Reichweite bekommt33:19 So trainierst du deinen LinkedIn-Feed35:09 Warum auf LinkedIn automatisiert wird36:00 Risiken und Regeln bei Automation38:00 LinkedIn ist keine Sales-Automation Plattform39:27 Auf LinkedIn basierte E-Mail-Generatoren41:50 Alte Vertriebsmethoden in LinkedIn gepresst45:22 Brittas Tipps für Dein LinkedIn48:51 Impact statt Impressions52:09 Tools für Social Selling mit LinkedInShownotesIn unserer heutigen Episode diskutiert Tim Ebner mit Britta Behrens (Certified Marketing Expertin für LinkedIn Marketing, B2B-Marketing und Social Selling) über die Herausforderungen und Chancen von LinkedIn in Verbindung mit KI. Vorweg: Eine vollständige Automatisierung des LinkedIn-Accounts ist eine schlechte Idee. Wir klären die Risiken seelenlosen Contents und wie du ihn am besten erkennen kannst. Britta erklärt, wie der LinkedIn-Algorithmus den Newsfeed steuert und wie man seinen Newsfeed trainieren kann.Business-Experten mit hoher fachlicher Expertise haben natürlich keine Zeit, auf KI-Tools zu verzichten. Vor allem nicht auf LinkedIn. Richtig, nur wie kann man auf LinkedIn organischen Content effektiv umsetzen? Britta und Tim sprechen über die Bedeutung von strategischem Networking sowie die Auswirkungen des LinkedIn-Algorithmus auf die Sichtbarkeit von Inhalten.Auf euch warten wertvolle Tipps für eine erfolgreiche LinkedIn-Strategie, wie man Social Selling mit Tools effektiv und effizient betreibt, warum Impressions irrelevant sind und warum früher nicht alles besser war.[Anzeige] Haufe Akademie: Business Automation Manager:inBei der Haufe Akademie gibt es eine Weiterbildung, die sehr gut zu unserem Thema der Podcastfolge passt: Die Masterclass zum Business Automation Manager!In mehreren Kursen (plus Abschlussprüfung) lernst du:Automatisierungspotenziale in Geschäftsprozessen zu erkennen, zu bewerten und erfolgreich umzusetzen,Geschäftsprozesse methodisch zu optimieren und gezielt mit KI-Technologien zu verknüpfen, um Automatisierungsprojekte effektiv umzusetzen,moderne Automatisierungstechnologien wie KI, NoCode-/LowCode-Tools und Plattformen wie Zapier und die Microsoft Power Platform effektiv einzusetzen, um Effizienz und Produktivität in deinen Geschäftsprozessen zu steigern undAutomatisierungslösungen als strategisches Werkzeug einzusetzen und nachhaltig im Unternehmensalltag zu verankern.Zur Masterclass: https://www.haufe-akademie.de/future-jobs-classes/business-automation-managerWeitere Angebote: https://www.haufe-akademie.de/futureVorschauIn zwei Wochen spricht Tim bei Datendurst mit Diana Ackermann von »Diana Ackermann Data Analytics & Consulting« über PowerBI: vom einfachen Einstieg bis zu maßgeschneiderten Analysen und Visualisierungen. Besonders klasse: Diana hat eine Checkliste für Dashboarding-Strategien mit PowerBI mitgebracht, die euch in den Shownotes zum Podcast mit ihr zum Download angeboten wird.Datendurst bei LinkedIn: https://www.linkedin.com/company/datendurst/
01:28 Intro02:37 [Anzeige] Haufe Akademie: KI-Weiterbildung04:17 Customer Centricity bei Freenet08:03 Transaktionale Befragungen16:05 Kundenzufriedenheit braucht Pflege23:01 Rollenbild: Advokat des Kunden32:00 Loyale Kunden vs. Schnäppchenjäger37:41 Strukturierte Feedback-Auswertung41:59 Halt! Warum verlässt Du den Warenkorb?42:48 Daten-Demokratisierung und Datenschutz49:20 Interne Kommunikation als Erfolgsfaktor54:16 ZukunftsthemenTim spricht heute mit Anke Schramm, Vice Vice President Market Research and Customer Advocacy bei Freenet. Anke ist Expertin für Behavioral Economics. Thema heute: Was bedeutet Customer Centricity und wie kann das, speziell in der Telko-Branche, zielführend umgesetzt werden? [Anzeige] Haufe Akademie: KI-WeiterbildungBei der Haufe Akademie gibt es eine Weiterbildung, die sehr gut zu Customer Centricity passt: Die Masterclass zum Digital Transformation und Innovation Manager. In mehreren Kursen geht es umdie Grundlagen digitaler Transformationdie Entfaltung von Kreativität unddie psychologischen Aspekte der Bedeutung im digitalen WandelPlattformökonomie in UnternehmenZur Masterclass: https://haufe-akademie.de/transformation-innovationWeitere Angebote: https://www.haufe-akademie.de/futureCustomer Centricity bei FreenetBei Freenet bedeutet Customer Centricity Kunden-Input schon bei der ersten Produkt-Idee über die gesamte Wertschöpfungskette live einzubeziehen. Das führt weiter über die Konzeption und Produktion bis in den Markt, und von da ab permanent. Sodass alle Phasen ein agiles Vorgehen ermöglichen, um sofort reagieren zu können.Transaktionale Befragungen erfolgen live, permanent und mit GefühlTransaktionale Befragung steht für permanentes Monitoren, Datensammeln, Auswerten und ggf. Reagieren. Vierteljährliche Umfragen reichen nicht. Jede Transaktion ist eine Möglichkeit um Feedback einzuholen. Das muss nicht in Hyperaktivität enden, sondern schärft vielmehr das Gefühl, wie Kundenfeedbacks zu bewerten sind. Ist z. B. etwas Common Sense oder lassen sich auch in einzelnen Stimmen neue Ideen und Perspektiven identifizieren? Wie lässt es sich in die Prozesse einarbeiten?Kundenzufriedenheit braucht PflegeKundenzufriedenheit ist zu Beginn einer Kundenbeziehung meist höher als im späteren Verlauf. Deshalb muss man Kundenbeziehungen pflegen wie eine gute Partnerschaft: hinhören, ernstnehmen, aber vielleicht auch mal überraschen, z. B. mit neuen Angeboten. Das fördert unter anderem Loyalität, aber auch Preisbereitschaft. Tim gibt an dieser Stelle kurz den Telekom-Influencer ;)Wenn Du wissen willst, was ein Daten-Pömpel in der Kommunikation der Deutschen Telekom bewirkt hat, schau doch mal hier vorbei: https://youtu.be/MOwFmBB-m4w?si=14VfEOA1-zEoUSfGRollenbild: Advokat des KundenAus der Kombination von Expertisen in Datenanalyse und Verhaltensökonomie, lassen sich wertvolle Beiträge im Sinne der Kundenzufriedenheit für die Wertschöpfungskette des Unternehmens leisten. Im Rollenverständnis als Interessenvertreter des Kunden werden Briefings für die jeweils relevanten Abteilungen formuliert. Handlungsempfehlungen erfolgen stets aus Kundensicht.Kundenbeziehung ist nicht alles: loyale Kunden vs. SchnäppchenjägerJe genauer eine Kundenbeziehungsdauer planbar ist, desto »leichter« sind Produkte und Maßnahmen zu entwickeln. Der Trend in der Telko-Branche geht zum monatlich kündbaren Tarif. Hier wird es für Verhaltensökonomen spannend: Wie kriege ich Loyalität konsistent erhöht, obwohl jemand jederzeit kündigen kann? Auf jeden Fall ist Kundenzufriedenheit nicht der einzige entscheidende Faktor.Strukturierte Feedback-Auswertung: Automatisierung, KI und GefühlDie Themenclusterung und -auswertung mit Hilfe von KI ist bei 30.000 Feedbacks pro Monat essenziell. Das beinhaltet auch eine semantische Segmentierung, die Wortwahl und Emotionen verknüpfen kann. Anke Schramm beschreibt hier, wie sie und ihre Abteilung trotzdem zusätzlich noch ein persönliches Gefühl für einzelne Feedbacks entwickeln können.Daten-Demokratisierung Datenschutz im Alltag von FreenetCX Daten sind bei Freenet für alle Mitarbeiter komplett einsehbar. Das erfordert spezielle Datenschutz-Maßnahmen: Einerseits wird der persönlichen Bezug in den einsehbaren Daten entfernt. Andererseits stellen entsprechende Arbeitsverträge sicher, dass der Datenschutz eigehalten wird.Interne Kommunikation als ErfolgsfaktorZu den wichtigsten Maßnahmen zählen bei Freenet:eine interne SharePoint-Seteder digitale »Jammer-Kanal«, einmal pro Woche werden Insights etwas umgänglicher dargestellt, mit weiterführenden Linksautomatisierte Frühwarn-AlertsQuartals-Community-Insights-NewsletterCX-WorkshopsHalt! Warum verlässt Du den Warenkorb?Anke Schramm spricht über eine kleine Befragung im Warenkorb, und wie ihre Ergebnisse mit den allgemeinen Verhaltensdaten (Clickpfade, Heatmaps etc.) kombiniert werden: Das Checkout-Abbrecher-Formular.ZukunftsthemenNeben alltäglichen Zukunftsthemen, wie technisch und in Bezug auf das Gefühl für die Kunden immer weiter zu entwickeln und zu testen, nennt Anke Schramm einige konkrete Punkte, die Ihr bei der Weiterentwicklung von datenbasierter Customer Centricity bei Freenet wichtig sind:Datenfusionierungen, wie am Beispiel des Checkout-Abbrecher-FormularsTransaktionale Behaviour-Daten, Feedbacks und operative Daten kommerziell noch stärker relevant machenEntwicklung eigener KI-AgentenSynthetische Daten dort, wo Feedback schwer zu erheben istVorschauIn zwei Wochen spricht Tim bei Datendurst mit Britta Behrens, LinkedIn Top Voice zu B2B Marketing, darüber, wie Du Dein LinkedIn zu 100% mit KI automatisieren kannstDatendurst bei LinkedIn:https://www.linkedin.com/company/datendurst/ 
00:01 Anmoderation00:44 Vorschau: Customer Centricity bei Freenet01:15 Heute zu Gast: Christian Schröder von DSK 36003:36 [Anzeige] Weiterbildung zum New Business and Risk Strategist04:55 KI-Compliance: Bürokratie oder Denkwerkzeug?06:56 EU-Digitalgesetze setzen auf Selbstverantwortung12:05 AI-Compliance besteht aus mehreren Rechtsbereichen13:01 NIS2: Informationssicherheit als Existenzsicherung16:02 Social Engineering als unterschätzte Gefahr18:29 Ziel und Logik des EU-AI-Act19:49 Weißt Du, was die KI mit Deinen Daten macht?23:10 Daten löschen funktioniert in KI-Systemen nicht25:25 Ausstehende Änderungen an der KI-Verordnung der EU34:02 Abwarten ist keine Strategie34:51 Wie Du KI-Compliance strukturiert angehst37:27 Standardisierte Dokumentation für alle Rechtsbereiche41:00 Wie lassen sich KI-MVPs mit KI-Compliance verbinden?48:48 Kann KI bei AI-Compliance helfen?52:46 Dank an Christian Schröder und Abmoderation Im Gespräch mit Christian Schröder, Berater bei DSK 360, widmet sich Tim dem Thema AI-Compliance. Wie geht man AI-Compliance richtig an? Warum sorgt sie in vielen Unternehmen für Chaos? Und wie lässt sich das Thema strukturiert und sinnvoll umsetzen, ohne Innovation auszubremsen?Über Christian Schröder von DSK 360Christian Schröder ist Berater für Datenschutz, Informationssicherheit und künstliche Intelligenz bei der DSK 360 GmbH. Sein Schwerpunkt liegt auf der praxisnahen Umsetzung von DSGVO, NIS2 und AI-Compliance.Christian bei LinkedIn: https://www.linkedin.com/in/christian-schroeder-dsk360DSK 360: https://dsk360.de/So gehst Du AI-Compliance strukturiert an:Zuständigkeiten und Verantwortlichkeiten klärenManagementsystem aufbauenAnwendungsfälle und Zwecke definierenSysteme risikobasiert klassifizierenRolle klären: Anbieter oder BetreiberPflichten und Risiken für Betroffene und Technik bewertenEinheitliche Dokumentation für EU-AI-Act, DSGVO und NIS2 nutzenEine gemeinsame Dokumentationsbasis spart Aufwand und erhöht die Qualität der Compliance.[Anzeige] Weiterbildung zum New Business and Risk StrategistDie Haufe Akademie bietet eine Weiterbildung zum New Business and Risk Strategist. In der Masterclass geht es um Zukunftskompetenzen, strategisches Risikomanagement und Compliance in dynamischen Märkten. Die Weiterbildung ist förderfähig für Arbeitnehmende und Selbstständige.Zur Masterclass: https://www.haufe-akademie.de/newbusinessWeitere Angebote: https://www.haufe-akademie.de/future KI-Compliance: Bürokratie oder Denkwerkzeug?Compliance wird oft als lästige Bürokratie wahrgenommen. Richtig umgesetzt schafft sie jedoch operativen Mehrwert, bereits in der Konzeptionsphase von KI-Anwendungen.EU-Digitalgesetze setzen auf SelbstverantwortungDie EU setzt auf Selbstverantwortung der Unternehmen. Wer den risikobasierten Ansatz versteht, gewinnt Gestaltungsspielraum statt Einschränkungen.AI-Compliance besteht aus mehreren RechtsbereichenNeben dem EU-AI-Act spielen auch DSGVO und Informationssicherheit (NIS2) eine zentrale Rolle. AI-Compliance ist immer interdisziplinär zu betrachten.NIS2: Informationssicherheit als ExistenzsicherungNIS2 zielt auf die Sicherheit von Unternehmenssystemen ab. Besonders relevant: Viele Cyberangriffe erfolgen nicht technisch, sondern über Social Engineering. Vertrauen, Druck und Autorität werden gezielt ausgenutzt.Ziel und Logik des EU-AI-ActDie KI-Verordnung soll Innovation ermöglichen und gleichzeitig Risiken kontrollierbar machen. Einheitliche Regeln sollen Wildwuchs vermeiden und Vertrauen schaffen.Passende Folge zum EU-AI-Act mit Sirke Reimann: https://www.youtube.com/watch?v=95xAtbiO9cQDatenkontrolle und KI-SystemeAnwender müssen entscheiden, wie Daten genutzt werden dürfen. Bei KI-Systemen ist das oft intransparent, insbesondere wenn Subverarbeiter Daten zum Training verwenden.Daten löschen in KI-SystemenDSGVO-Betroffenenrechte gelten auch für KI. Da klassische Löschkonzepte hier kaum greifen, ist es entscheidend, vorab festzulegen, welche Daten überhaupt in KI-Systeme gelangen dürfen.AI-Act: Änderungen in DiskussionIm Rahmen eines Omnibusverfahrens prüft die EU Anpassungen am AI Act, etwa Fristverlängerungen oder Erleichterungen für KMU. Der Kern der Verordnung bleibt jedoch bestehen. Abwarten ist keine Strategie.KI-MVPs und ComplianceAuch MVPs lassen sich compliant umsetzen. Wichtig sind klare Rahmenbedingungen, fachliche Begleitung und der bewusste Umgang mit sensiblen Daten.Kann KI bei AI-Compliance helfen?KI kann bei Dokumentation und Analyse unterstützen. Blindes Vertrauen ist jedoch gefährlich. Menschliche Kontrolle bleibt unverzichtbar.VorschauIn zwei Wochen spricht Tim bei Datendurst mit Anke Schramm, Vice President of Market Research and Customer Advocacy bei Freenet, über datenbasierte Customer Centricity.Datendurst bei LinkedIn:https://www.linkedin.com/company/datendurst/ 
Tim spricht heute mit Ann-Cathrin Schäfer. Sie ist seit fünf Jahren Senior Data Analytics Specialist bei Otto. Zentrale Fragen dabei sind: Wie ist Otto in Sachen Communication Analytics (Comms Analytics) aufgestellt? Wie entwickeln sich die Analysen dort, seitdem Ann-Cathrin da ist? Wie stellt sie sich die Zukunft dieses Bereiches vor?[Anzeige] Data Analyst Weiterbildung bei der Haufe AkademieTim stellt die Haufe Akademie als Sponsor des Podcasts vor und weist auf die Masterclass zu Data Analytics hin. Sie beinhaltet den Einstieg in Big Data, Machine Learning und professionelle Datenanalyse. Hier setzt Ihr unter anderem komplette Datenprozesse mit KNIME um. Am Ende der Masterclass (Präsenzkurse und Webinare) und nach bestandener Prüfung erhaltet Ihr das Zertifikat zum Data Analyst.Tipp am Rande: Werft auch mal einen Blick in deren FAQs zu Fördermöglichkeiten für Arbeitnehmer und Selbstständige.https://www.haufe-akademie.de/data https://www.haufe-akademie.de/faqsAnalyse heißt: Zahlen liefern UND interpretierenAnn-Cathrin steht im permanenten Austausch mit CVDs für die Datenerhebungen sowie operativen Teams und Kommunikationsverantwortlichen. Ihre Aufgabe beinhaltet ganz wesentlich die Interpretation gesammelter Daten.Offenheit gegenüber Daten ist GrundvoraussetzungDie Offenheit aller Abteilungen bei Otto ist die Grundvoraussetzung dafür, dass Ann-Cathrin ihre Auswertungen transparent und konstruktiv Allen zur Verfügung stellen kann.Ganzheitliches Monitoring und dynamische, strategische EinbindungAnn-Cathrin fasst ihr Monitoring derzeit aus folgenden Quellen zusammen:a) externe Dienstleister: Medien-Resonanzanalysen und Reportingsb) intern: Social-Media-Analysen, Social Listening, Pressearbeit und MedienmonitoringNur aus der ganzheitlichen Betrachtung lässt sich sinnvoller Input generieren und strategisch einbauen.Steuerung durch mehr Flexibilität und GeschwindigkeitDie Datenauswertung ist genauso wichtig wie die strukturierte, permanente Datensammlung. Entsprechend kann auch ein so großer Konzern wie Otto auf allen Ebenen konzertiert und tagesaktuell reagieren.Prioritäten entwickeln sich im gegenseitigen AustauschAnn-Cathrin kann bei der Datenauswertung im Einzelfall selbständig entscheiden, wen sie dringlich und zuerst unterrichtet. Anschließend bekommt sie Feedback, ob die Entscheider den Einzelfall genauso werten. So können sich Strategie und Maßnahmen intern dynamisch weiterentwickeln.Analyse der internen Kommunikation bei OttoDie interne Kommunikation und die interne Themenkonjunktur wird bei Otto über das Intranet, Kommentare und Meetings wie das monatliche Townhall-Meeting analysiert. Qualitatives Feedback im Sinne von Umfragen ist aus Compliance-Gründen meistens schwierig.Die vier Schritte des Analytics Value Escalator1. Descriptive Analytics: Was ist rückblickend passiert? (Hindsight)2. Diagnostic Analytics: Warum ist was passiert? (Insight)3. Predictive Analytics: Was wird passieren? (Foresight)4. Prescriptive Analytics: Wie können wir Handlungsempfehlungen automatisiert herleiten und/oder umsetzen? (Assistance / KI)Potenzial von KI in Comms AnalyticsBei der Codierung von großen Datenmengen oder dem Clustern von tausenden Kommentaren kann KI sehr beschleunigt arbeiten. Aber die Abstimmungen mit Compliance, Entwicklung und Testen von Agents, automatisierten Workflows und Modellen brauchen eine lange, intensive Vorarbeit.Beispiel für KI in der Analyse der KommunikationAus Ann-Cathrins Sicht eignet sich KI in der Datencodierung für die Reputationsmessung: Zuordnung von Reputationsdimensionen, Reputationswerten sowie Sentiments. Daraus kann eine Gesamtreputation abgeleitet werden.Fremdwahrnehmung vs. IdealbildBeispiel für ein Ziel solcher Analysen: Wie passt die Fremd- oder die Wahrnehmung in Social Media oder in den Medien zu unserem Idealbild, das wir darstellen wollen? Damit können Kommunikation und Reaktion auf Entwicklungen qualitativ verbessert und beschleunigt werden.Podcast Datendurst: Links zu verwandten ThemenCompliance, Vorbereitungszeit von KI:https://www.youtube.com/watch?v=_SiXbFdZ8_QVerteilungsprozesse zwischen Social Media, Presse und internen Stakeholdern:https://www.youtube.com/watch?v=FsXtEZS2cyEAusblick, nächste FolgeIn 14 Tagen spricht Tim mit dem Datenschützer Christian Schröder über KI-Compliance und wie man das richtig macht.Links zur Podcast-FolgeOtto: https://www.otto.deAnn-Cathrin Schäfer: https://www.linkedin.com/in/ann-cathrin-schaefer/?originalSubdomain=deKapitel01:00 Anmoderation02:13 [Anzeige] Haufe Akademie, Sponsor & KI-Weiterbildung03:17 Analyse heißt: Zahlen liefern UND interpretieren05:07 Offenheit gegenüber Daten ist Grundvoraussetzung08:01 Ganzheitliches Monitoring und dynamische, strategische Einbindung10:07 Steuerung durch mehr Flexibilität und Geschwindigkeit11:45 Prioritäten entwickeln sich im gegenseitigen Austausch16:37 Analyse der internen Kommunikation bei Otto18:18 Die vier Schritte des Analytics Value Escalator21:09 Potenzial von KI in der Datenanalyse22:43 Beispiel für KI in der Analyse25:36 Fremdwahrnehmung vs. Idealbild27:04 Abmoderation
Tim spricht mit Christian Kelm über Amazon Analytics, Relevanzmechaniken und die Tatsache, dass der Algorithmus im Kern eine einfache Zählmaschine ist. Christian zeigt, wie Händler ihre Sichtbarkeit durch Kundensignale, Produktdetailseiten und Datenanalysen beeinflussen können.Einstieg und Vorstellung von Christian KelmTim begrüßt Christian Kelm und führt in das Thema „Amazon Analytics” ein. Er arbeitet seit vielen Jahren mit Amazon-Daten und beschäftigt sich mit Ranking-Mechaniken und Händlersemantik.Lerne Christian kennen: https://www.linkedin.com/in/christian-otto-kelm/Erfahre mehr über die AMALYZE AG: https://www.linkedin.com/company/amalyze/ Die zentrale These zum Amazon-AlgorithmusChristian erläutert seine These: Der Amazon-Algorithmus ist weniger mystisch, als oft behauptet wird. Entscheidend sind das Kundenverhalten, Relevanzsignale und die Fähigkeit der Händler, die Marktbedingungen zu erfüllen.Haufe Akademie: Masterclass Marketing & Sales AnalyticsTim stellt den Sponsor des Podcasts, die Haufe Akademie, vor und verweist auf die Masterclass zum Marketing und Sales Analyst. Teilnehmende lernen dort, Marketing- und Sales-Aktivitäten datenbasiert zu steuern. Unter https://haufe-akademie.de/analyst erfährst du mehr.Zählmaschine, Relevanz und KundeninteraktionenDer Algorithmus basiert im Kern auf Klicks, Reaktionen auf Detailseiten und Kaufverhalten. Diese Signale werden gezählt und in Rankings überführt.„Zunächst muss man sich bewusst machen, dass es sich hierbei um eine reine Zählmaschine handelt. Nichts weiter. Im Rahmen der A Company kann man sich ein paar alte Patente angucken. Im Endeffekt geht es nur um Relevanz, also eine Sortierung nach Relevanz in einem riesigen Produktkatalog.”Schau Dir hier das erste Patent von A9 an: https://patents.google.com/patent/US20030195877A1/Bewertungen, Preise und indirekte SanktionenSinkende Sternebewertungen oder unpassende Preiserhöhungen führen zu weniger Klicks und somit zu schlechteren Platzierungen. Amazon „bestraft“ nicht aktiv, sondern das Kundenverhalten erzeugt die Rankingveränderung.Preisgefüge und Keyword-RelevanzJe nach Keyword unterscheiden sich die Preisniveaus, etwa bei Goldarmbändern. Händler müssen verstehen, ob ein Begriff die Material- oder die Farbintention widerspiegelt.Volatilität der SuchergebnisseitenBei Produkten mit klaren Anforderungen, wie beispielsweise Wagenhebern, sind die Suchergebnisseiten träge. In anderen Kategorien verändern sich die Rankings aufgrund des Nutzerverhaltens und der Variantenvielfalt häufig.„Das heißt, die Volatilität unter diesem Keyword „Wagenheber” ist extrem niedrig, weil es sich um Wagenheber handelt, die den Wagen heben können.”Kundensprache, Ameisenalgorithmus und KaufmannsparadoxonChristian nutzt den Begriff „Ameisenalgorithmus”, um kollektives Kundenverhalten zu erklären. Das Kaufmannsparadoxon wiederum zeigt, wie Amazon Suchergebnisse aus mehreren aufeinanderfolgenden Käufen ableitet.Erfahre mehr über den Ameisenalgorithmus: https://wirtschaftslexikon.gabler.de/definition/ameisenalgorithmus-54002 Cross-Selling-Effekte in SuchergebnissenIn Suchergebnislisten erscheinen unerwartete Produkte, weil Käufer bestimmte Artikel häufig kombiniert erwerben. Amazon verkürzt diese Customer Journey, indem das Unternehmen diese Muster abbildet.Produktanforderungen und TitellogikAmazon-Titel wirken oft überladen, weil Händler ihre Anforderungen direkt in den Titel packen. Die Gewichtung des Titels für das Ranking ist jedoch geringer als von Vielen angenommen.Google-Amazon-Weiterleitungen und Ranking-EffekteChristian beschreibt, wie Google-Suchphrasen zu Amazon-URLs weiterleiten und Rankings beeinflussen können. Dabei spielen Canonical-URLs und Keyword-Kombinationen eine technische Rolle.„Wenn Amazon-Produkte in Google-Rankings auftauchen, liegt das an der Canonical-URL. Die lässt sich selber schreiben. Wenn du in den Titel fünf Wörter schreibst und einen Bindestrich einsetzt, wird die Canonical-URL automatisch erstellt.”Beispiel Pinkes Kühlpad: Ranking über PDP-TargetsDurch das Targeting anderer pinker Produkte über die PDP (= Product Detail Page) statt über Keywords konnte ein Kühlpad in zahlreichen Keyword-Umfeldern ranken. Dieser Ansatz nutzt Kaufpfade statt der klassischen Keyword-Relevanz.SEO, PPC und Targeting-StrategienFür Christian bedeutet SEO, die Sprache der Kunden zu verstehen und deren Suchintention abzuleiten. PPC ergänzt dies durch Sichtbarkeit an Positionen, die organisch noch nicht erreichbar sind.„Suchmaschinenoptimierung auf Amazon bedeutet, die Sprache der Kunden zu lernen. Kundisch ist die Sprache der Kunden: Was wird im Suchfeld eingegeben und wo geht der Pfad des Kunden lang?”Brand Analytics, Product Opportunity Explorer und Category InsightsAmazon stellt umfangreiche Datenquellen bereit, darunter Suchvolumina, Klickanteile, Preispunkte und saisonale Muster. Mithilfe dieser Daten können Händler Marktpotenziale und Wettbewerbsdynamiken bewerten.Erfahre mehr zum Product Opportunity Explorer: https://sell.amazon.com/tools/product-opportunity-explorer Werbedaten, KPIs und die Amazon Marketing CloudIn der Advertising-Konsole fehlen zentrale Kennzahlen wie die Conversion Rate oder die Kosten pro Bestellung, die jedoch berechenbar sind. Die Amazon Marketing Cloud ermöglicht tiefere Analysen von Kundenpfaden und Werbewirkung.
Tim spricht mit Simon Bongers darüber, warum Business Intelligence (BI) weit über Visualisierungen hinausgeht und wie Datenmodelle, Governance und agile Produktentwicklung zusammenspielen. Anhand konkreter Beispiele aus der BI-Praxis von ROSE Bikes demonstriert Simon, wie Datenqualität, Modellierung und Prozesse fundierte Entscheidungen ermöglichen.Begrüßung und WeihnachtsauftaktTim eröffnet die Folge im Weihnachtssetting und stellt Simon von ROSE Bikes vor. Direkt zu Beginn geht es darum, wie Fahrräder und BI gleichermaßen Geschenke mit Wirkung sein können.Lerne Simon kennen: https://www.linkedin.com/in/simon-bongers-b061431ba/?originalSubdomain=deROSE Bikes und ROSE DigitalSimon erläutert die Struktur von ROSE Bikes und seiner Tochter ROSE Digital, die aus einer übernommenen Agentur hervorgegangen ist. Heute bündelt ROSE Digital den gesamten IT-Bereich inklusive Business Intelligence (BI).Erfahre mehr zu ROSE Bikes unter - https://www.rosebikes.de/,- https://www.instagram.com/rose_bikes/?hl=de, - https://www.instagram.com/rosecircle/- oder https://de.linkedin.com/company/rose-bikes[Anzeige] Haufe Akademie: Sponsor & KI-WeiterbildungTim stellt die Haufe Akademie als Sponsor des Podcasts vor und weist auf die Future Jobs Classes hin. Im Fokus steht die zertifizierte Weiterbildung zum KI-Manager, in der die Teilnehmenden lernen, KI-Potenziale in Unternehmen zu erkennen und umzusetzen: https://haufe-akademie.de/kiMythos BI: Warum bunte Charts nicht reichenCharts sind nur die letzte und sichtbare Schicht eines BI-Produkts. Entscheidend sind Kontext, Definitionen und die Herkunft der Daten. Ohne eine valide Grundlage bleibt jede Visualisierung oberflächlich.Integration mehrerer DatenquellenSimon beschreibt, wie Daten aus Meta, LinkedIn und weiteren Systemen über eine API ins Core-Data-Warehouse geladen werden. Anschließend werden die Daten abgeglichen, geprüft und kombiniert .Komplexität durch Mapping und DatenvalidierungIDs, Kampagnennamen oder Nutzerkennungen unterscheiden sich je nach System und müssen daher sauber gemappt werden. Erst dieses Mapping ermöglicht integrierte Auswertungen und korrekte Kennzahlen.Umrechnungskurse und wirtschaftliche EffekteWährungen, Fakturadaten und Wechselkursänderungen können zu Abweichungen zwischen Auftrag und Rechnungswert führen. Diese Effekte müssen im Reporting transparent abgebildet werden.Erklärung: „Fakturadaten" sind Daten auf Rechnungen und anderen Abrechnungsbelegen.Dimensionen- und Faktenmodell nach KimballSimon erläutert das Prinzip der zentralen Faktentabellen und der angebundenen Dimensionstabellen. Das Modell ermöglicht klare Schlüsselbeziehungen und konsistente Berechnungen im Reporting.Weitere Details zum Modell von Kimball: https://bit.ly/4a5168lBeispiel: Datumsdimension und WirtschaftsjahrDa Kalender- und Wirtschaftsjahre unterschiedlich verlaufen können, muss eine Datumsdimension zusätzliche Attribute bereitstellen. Damit lassen sich Year-to-Date-Analysen oder abweichende Geschäftsjahre korrekt abbilden.Performance, Struktur und die Schneeflocken-MetapherDas Modell wird je nach der Zahl der angebundenen Dimensionen als Stern oder Schneeflocke dargestellt. Diese Struktur fördert die Performance und erleichtert spätere Filterlogiken.Erfahre mehr über das Sternschema: https://www.databricks.com/de/glossary/star-schemaRolle des Product Owners bei BIDer Product Owner steuert die Produktentwicklung des BI-Systems, priorisiert Anforderungen und bildet die Schnittstelle zu Stakeholdern. Er entscheidet, was umgesetzt wird – wie dies geschieht, liegt beim Team.Vom BI Engineer zum Product OwnerSimon berichtet, wie er aus dem Engineering in die Rolle des Product Owners wechselte, um das BI-Team agiler aufzustellen:„[…] Dann durfte ich eine Schulung machen, mich also auch fachlich weiterentwickeln, ein Zertifikat erwerben und mich anschließend quasi selbst Product Owner nennen. Das mache ich jetzt auch im Team.“Scrum vs. Kanban im BI-TeamWährend Scrum mit zweiwöchigen Sprints für Fokus und Verlässlichkeit sorgt, führt Kanban in der Praxis oft zu Priorisierungskonflikten. Kleine, klar geschätzte Aufgaben ermöglichen aber planbares Arbeiten.Großprojekt: Neues ERP, neues PIM, neues BIROSE hat sein ERP-System, sein PIM-System, seine Datenbank und sein BI-Frontend nahezu gleichzeitig erneuert. Der Umbau nahm viel Zeit in Anspruch und erforderte eine enge Zusammenarbeit zwischen der IT-Abteilung und den Fachbereichen.Was gute BI Produkte für das Geschäft bedeutenGute BI Produkte liefern konsistente Kennzahlen und vermeiden somit Diskussionen über unterschiedliche Zahlenstände. Sie unterstützen datenbasierte Entscheidungen in verschiedensten Bereichen wie Vertrieb, Logistik und Management.Zusammenarbeit zwischen Marketing und SalesMarketing- und Vertriebsdaten werden gemeinsam betrachtet, um Kampagnen, Abverkauf und Lagerreichweiten aufeinander abzustimmen. So lassen sich Budgets effizient einsetzen und Produktgruppen gezielt steuern.„Bei Rose funktioniert das Zusammenspiel zwischen Marketing und Sales sehr gut. Wenn jetzt zum Beispiel eine Marketingaktion läuft, dann werden entsprechend die Sales- und Marketingstrategien miteinander abgestimmt.”
In Teil 2 gehen Tim und Sascha tiefer in ihren Führungsalltag in Data-Teams ein. Sie ordnen die Google Oxygen Attributes ein, sprechen über Enablement statt Tool-Engpässe und über knifflige Situationen, die Führungskräfte mittragen müssen.Einführung und Kernthese zu Tool-ExpertiseSascha eröffnet die zweite Folge mit der These, dass Analysten keine reinen Tool-Experten sein sollten. Power BI gilt beispielsweise als Standardwerkzeug, mit dem Teams end-to-end arbeiten können.Hier geht’s zum ersten Teil: https://open.spotify.com/episode/0U0lOp2hQDWyfdFLJJAL3c [Anzeige] Masterclass Marketing & Sales AnalystKennst du schon die „Marketing & Sales Analyst” Masterclass der Haufe Akademie? Wenn du mehr über das Angebot erfahren möchtest, schau unter haufe-akademie.de/analyst vorbei.Google Oxygen Attributes als FührungsrahmenTim nutzt die Google Oxygen Attributes for Great Managers gerne als Wertegerüst für seinen Führungsstil. Sie sind in die Kategorien „Develop your team” und „Get things done” unterteilt. Tim erklärt im Detail, was das bedeutet.Mehr zu den Google Oxygen Attributes: https://www.inc.com/marcel-schwantes/google-research-says-what-separates-best-managers-from-rest-boils-down-to-8-traits.html Inklusives Team-Umfeld, psychologische Sicherheit und OnboardingUnter „Develop your team“ geht es um respektvollen Umgang, Diversität und psychologische Sicherheit, insbesondere aufgrund täglicher Fehler im Data-Kontext. Tim beschreibt zum Beispiel seine Onboarding-Routine mit Zeit am ersten Tag und einem kleinen Willkommensritual.Micromanagement vermeiden, Innovation fördernMicromanagement wird als Bremsklotz für Data-Teams angesehen. Führungskräfte sollten stattdessen Freiheit geben, Anleitung bieten und Innovation sowie wohlüberlegte Risikobereitschaft fördern.Fokus auf Lösungen statt Problem-DelegationEin Problem anzusprechen bedeutet, mit Lösungsvorschlägen zu kommen. So bleibt die Verantwortung beim Problemfinder und Aufgaben werden nicht an Andere delegiert.One-on-Ones: Ziele, Herausforderungen, EntwicklungTim nutzt das Format der One-on-Ones für Reviews, gemeinsame Zielsetzungen und die Besprechung aktueller Herausforderungen. Auf diese Weise entstehen Entwicklungsgespräche, Weiterbildungspläne und Leistungsfeedbacks.Vision und Strategie fürs TeamIm Teil „Get things done“ dreht sich alles um eine klare Teamvision, die regelmäßig überprüft und bei Bedarf angepasst wird. Daraus leiten sich Ziele, Ownership und Priorisierung ab.Hindernisse entfernen: Data Governance im MergerTim schildert einen Merger-Fall, in dem sich Meetings aufgrund ungeklärter Datenzugriffe im Kreis gedreht haben. Tim half in diesem Fall seinen Mitarbeitern dabei, auf Grenzen der Compliance hinzuweisen und diese auch durchzusetzen .Bessere und effizientere E-MailsSascha und Tim besprechen die Email-Charta. Das sind Regeln für kürzere und klarere E-Mails. Hierdurch werden Kommunikation und Zusammenarbeit effizienter. Dazu gehören z.B. Betreff-Tags wie EOM („End of Message“) oder NNTA („No need to reply“).Starfish Retro als Feedback-FormatTim empfiehlt die Starfish-Methode (Start/Stop/Keep/More/Less) für Retros in kniffligen Situationen oder zum Rückblick auf abgeschlossene Projekte. Sie dient dazu Feedback strukturiert und konstruktiv zu sammeln. Sascha rät dazu, sie nur punktuell einzusetzen, damit sie nicht zur Routine wird.Erfahre mehr über die Starfish-Methode: https://www.teamretro.com/retrospectives/starfish-retrospective/ Generalisten statt Tool-Experten: Power BI/SQLSascha erzählt, warum er nach dem Weggang eines Power-BI-Experten bewusst einen Generalisten eingestellt hat. Tools wie Power BI und SQL sind für ihn Grundlagen, die eigentliche Leistung liegt in der Gedankenarbeit hinter einer End-to-End-Analyse.Meeting-Hygiene, Daily und Jira/ConfluenceSascha und Tim sprechen über Engpässe bei Meetings und Regeln wie „no agenda, no attender“. Kurze Dailys und ein leichtgewichtiges Jira-/Confluence-Board schaffen Transparenz über Aufgaben und Blocker.Knifflige Führungsaufgaben und Circle of InfluenceIm letzten Drittel des Podcast sprechen Tim und Sascha über disziplinarische Themen wie Probezeit, Kündigung oder sogar Abmahnungen. Außerdem diskutieren sie Top-down-Entscheidungen, für die sie sich einsetzen müssen, und nutzen dafür den „Circle of Influence” als Tool für mehr Resilienz.Mehr zum Circle of Influence: https://asana.com/de/resources/circle-of-influence Delegieren, Scope Creep und Vasa-ProjektZum Abschluss verbindet Tim Delegation mit der Gefahr von „Scope Creep” und erzählt die Geschichte der „Vasa” als Beispiel für fehlende Dokumentation und ständig wachsende Anforderungen. Tim und Sascha betonen die Bedeutung klarer Anforderungsdefinitionen, kontinuierlicher Tests und pragmatischer Kommunikation im Analytics-Alltag.Die "Darwin gefällt das" Folge zum "Vasa" Projekt findest du unter https://open.spotify.com/episode/6DJTrSKLpLjeky0IUQ7BER?si=Vh8JXQhmTLu3rli3k3itkw .
Tim spricht mit Karen Gärtner über Datenkultur im Unternehmen: Warum sie die Basis für datengetriebenes Arbeiten ist, welche Rolle Vertrauen, Haltung und Strukturen spielen und wie kreative Formate wie Graffiti oder Data Escape Rooms helfen können, Silos aufzubrechen.[Anzeige] Auf der Website haufe-akademie.de/future erfährst du mehr über die Masterclasses der Haufe Akademie rund um digitale Transformation, agiles Arbeiten und Corporate Learning.Einführung und Vorstellung von Karen GärtnerKaren Gärtner ist IT-Architektin bei der Kasseler Verkehrs- und Versorgungsgesellschaft sowie Head of Training & Events bei der Data Management Association Deutschland (DAMA). Sie spricht über Datenkultur als Grundlage für gute Entscheidungen.Lerne Karen kennen: https://www.linkedin.com/in/karen-gaertner/Datenkultur als Thema der FolgeGemeinsam klären Tim und Karen, was Datenkultur bedeutet, weshalb sie oft unterschätzt wird und wie sie die Nutzung von KI fördert.Daten und Prozesse als „Bruder und Schwester“Karen beschreibt, wie Prozesse und Daten einander bedingen. Prozesse erzeugen Daten und Daten geben Prozessen Richtung und Qualität. Beides gehört untrennbar zusammen.Berührungsängste im Umgang mit DatenViele empfinden Datenarbeit als fremd oder zu komplex. Eine gute Datenkultur verringert diese Distanz, weckt Interesse für Daten und fördert das gemeinsame Verständnis zwischen Fach- und Daten-Teams.Die Rolle der DAMA und das DMBoKKaren erklärt, was die DAMA macht: Sie setzt Standards im Datenmanagement, organisiert Community-Events und ist Herausgeberin des „Data Management Body of Knowledge“.Warum Datenkultur Unternehmen stärktEine Datenkultur sorgt dafür, dass Daten nicht nur gesammelt, sondern aktiv genutzt werden. Sie schafft Vertrauen, fördert Mut und ermöglicht datenbasierte Entscheidungen.Was Datenkultur ausmacht: Haltung, Werte, VerhaltenSie umfasst technische, organisatorische und emotionale Aspekte. Sie wird in Prozessen und Rollen sichtbar, in Vertrauen, Glaubenssätzen und Zusammenarbeit hingegen unsichtbar.Wie man schlechte Datenkultur verändertFür einen Kulturwandel braucht es Zeit und Verständnis. Karen empfiehlt deshalb, zunächst das Unternehmen und sein Verhalten zu beobachten und dann schrittweise Veränderungen umzusetzen.Silos erkennen und Unternehmenskultur analysierenDatensilos verhindern Transparenz. Mithilfe einer Analyse der Ist-Kultur können Offenheit, Datenflüsse und Kooperationsbereitschaft bewertet und verbessert werden.Top-down und Bottom-up in der DatenkulturDatenkultur entsteht durch Bewegung von beiden Seiten. Die Führungsebene schafft Strukturen und Orientierung, während die Mitarbeitenden Ideen und Use Cases einbringen.Strukturen schaffen: noninvasive Ansätze und HausbesucheAnstatt große Programme zu starten, empfiehlt Karen kleine Schritte: In bestehenden Prozessen ansetzen, Use Cases fördern und durch „Hausbesuche“ Vertrauen schaffen.„Headroom“: Warum Zeit und Raum entscheidend sindWie in der Musik braucht auch die Datenarbeit Freiraum. Unternehmen sollten ihren Mitarbeitenden Zeit und Budget geben, um Neues auszuprobieren und Ideen zu entwickeln.Datenkultur-Formate: Open Sessions, Data Escape Rooms, Lego Serious PlayKreative Formate fördern das Verständnis für ein Thema und machen es spannend. Ob Workshops, Data Days oder Lego Serious Play: Entscheidend ist, dass die Mitarbeitenden selbst aktiv werden.Graffiti als Symbol für datengetriebenes ArbeitenKaren erzählt von einem Data-Day-Projekt, bei dem Mitarbeitende ein Graffiti zur digitalen Transformation gestalteten – als sichtbares Symbol ihrer gemeinsamen Datenarbeit.Datenkultur und KI: Wie Vertrauen und Qualität KI ermöglichenEine reife Datenkultur ist Grundlage für sinnvolle KI-Anwendungen. Nur mit klaren Verantwortlichkeiten, guter Datenqualität und kritischem Denken kann KI Mehrwert schaffen.Triff Karen!Beim Stammdatenforum des Deutschen Kongresses, das am 27. November 2025 stattfindet, bieten Fabienne Schnieders (TU Dortmund) und Karen Gärtner (DAMA) einen Workshop zum Thema „Data Culture“ an.🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Tim und Sascha sprechen darüber, wie sie zu ihren Führungsrollen bei RTL und innogy.C3 kamen, was gutes Onboarding für Führungskräfte ausmacht und wie man mit Karrierewünschen, schwierigen Teamdynamiken und der Kommunikationskultur umgeht.[Anzeige] Auf der Website haufe-akademie.de/analyst erfährst du mehr über die Master Class "Marketing & Sales Analyst" des neuen Sponsors Haufe Akademie.Einführung und Thema der FolgeTim eröffnet die Episode mit Sascha Leweling von RTL. Gemeinsam sprechen sie über Führung in Data-Teams: vom Einstieg in die Rolle, über Teamkultur bis hin zu Kommunikation und Vertrauen.Sascha ist dir vielleicht noch von dieser Folge bekannt: https://youtu.be/k3tvwCM0QuI?si=__MCzQFIafmZJ3m6Von Data Science zur Führung: Saschas Weg bei Obi und RTLSascha beschreibt, wie er vom Data Scientist zum Head of Customer Analytics wurde. Der Übergang vom Fach- zum Führungsverantwortlichen brachte neue Perspektiven und Verantwortung mit sich.Tims Einstieg in die Führungsrolle bei innogy.C3 während der E.ON-ÜbernahmeTim erzählt, wie er in einer Umbruchsphase in die Führung gerückt ist – mit Restrukturierungen, Team-Abgängen und einem hohen Maß an Eigeninitiative.Onboarding, Coaching und die Google Oxygen AttributesEin Coaching- und Mentoring-Programm half Tim dabei, seine Werte als Führungskraft zu entwickeln. Grundlage waren die Google Oxygen Attributes „Develop your team” und „Get things done”.Mehr zu Google Oxygen Attributes: https://www.inc.com/marcel-schwantes/google-research-says-what-separates-best-managers-from-rest-boils-down-to-8-traits.html Karriereentwicklung und MitarbeiterbindungBeide betonen, wie wichtig es ist, Mitarbeitende bei internen Wechseln zu unterstützen, statt sie zu blockieren. Talentbindung steht über Team-Ego.Was macht Google Manager aus: https://rework.withgoogle.com/intl/en/guides/managers-research-behind-great-managersVertrauen, Transparenz und eine interne WechselkulturEine offene Kommunikation über Karriereziele stärkt das Vertrauen im Unternehmen. Verschweigen oder Misstrauen schaden der Kultur langfristig.Onboarding bei RTL: Vertrauen, Eigenverantwortung und FührungskräfteschulungSaschas Start bei RTL war ein Sprung ins kalte Wasser: Micromanagement gab es nicht, dafür Vertrauen und Verantwortung vom ersten Tag an.Das DISG Modell und Persönlichkeitstypen in Data-TeamsIn beiden Onboardings wurde das DISG Modell – dominant, initiativ, stetig, gewissenhaft – als pragmatische Heuristik zur Teamzusammenstellung und Kommunikation angewendet.Mehr zum DISG Modell: https://www.disg-modell.de/ueber-disg/einfuehrung/Dominanz, Eigenwahrnehmung und FeedbackkulturTim reflektiert seine dominante Ausprägung und zeigt auf, wie die Übereinstimmung von Selbst- und Fremdbild dabei helfen kann, Konflikte konstruktiv zu lösen und die Kommunikation zu verbessern.Strukturen bei RTL: Teamaufbau und Cloud-MigrationSascha schildert die technischen und organisatorischen Veränderungen bei RTL: den Wechsel von On-Premise-Systemen zur Cloud sowie die Neuorganisation der Stakeholder-Strukturen.New Ways of Working und Meetingkultur bei innogy.C3Tim beschreibt, wie innogy.C3 agile Meetingstrukturen mit klaren Rollen, Transparenz, Check-ins und Fokus auf Zielorientierung etablierte.Kooperative Kommunikation nach Moritz KüffnerSie besprechen Küffners Ansatz der kooperativen Kommunikation, bei der es um Augenhöhe, das Vermeiden von Verlierern und das Nutzen schwieriger Situationen geht.Mehr über Kooperative Kommunikation: https://www.kokomm.net/prinzip#kooperative-kommunikationFehlerkultur, Augenhöhe und Vertrauen im TeamZum Abschluss geht es um Fehlermanagement im Data-Bereich: Fehler dürfen passieren, entscheidend ist, wie man als Führungskraft reagiert – mit Rückendeckung und Lernorientierung.Officevibe im Detail: https://workleap.com/officevibe 🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Wie gelingt eine Datenstrategie im Mittelstand? Tim spricht mit Stephan Hausberg über fehlende Datenkultur, Priorisierung, Agentic AI und den Weg vom Use Case zum Business Case.Erfahre mehr über die Master Class „Marketing & Sales Analyst” des neuen Sponsors Haufe Akademie unter haufe-akademie.de/analyst.Einführung und Thema der FolgeTim eröffnet das Gespräch mit Stephan über den „Endgegner Mittelstand“ und geht dabei der Frage nach, warum Datenstrategien dort oft schwer umzusetzen sind und wie es dennoch gelingt.Vorstellung von Stephan HausbergStephan ist bei 1&1 Versatel vom Analysten bis zum Head of Data aufgestiegen und berät heute mit onemoreoption.ai Unternehmen zu Datenstrategie und -anwendung. Privat ist er Familienmensch und begeisterter Sportler, beruflich ein Problemlöser mit Leidenschaft für Daten.Erfahre mehr über Stephan: https://www.linkedin.com/in/dr-stephan-hausberg-679750118/Schau auch bei www.onemoreoption.ai vorbei.Warum Data im Mittelstand so schwierig istIm Mittelstand fehlen oft Daten-Teams und eine etablierte Datenkultur. Viele Geschäftsführer treffen Entscheidungen aus Erfahrung, meist ohne eine datenbasierte Grundlage zu haben.Bauchgefühl vs. DatenorientierungStephan betont, dass die Einstellung „Das haben wir schon immer so gemacht“ nicht immer falsch ist. Wichtig sei es, zu erkennen, wann Erfahrung trägt und wann sich die Rahmenbedingungen verändert haben.Fehlende Teams, Ziele und PriorisierungTim beschreibt ein Beispiel aus dem Marketing eines mittelständischen Unternehmens, in dem eine einzelne Person für alles zuständig ist. Ohne klare Ziele und Prioritäten verpufft der Raum für Datenanalysen.Führungskultur und Arbeitsrealität im MittelstandÜberforderung, Reizüberflutung und Fachkräftemangel erschweren datenorientiertes Arbeiten. Führung sollte klare Prioritäten setzen und Überlastung vermeiden.Fokus auf Kerngeschäft und ZukunftsrisikenUnternehmen, die sich ausschließlich auf ihr Kerngeschäft konzentrieren und dabei Daten vernachlässigen, riskieren langfristig Wettbewerbsnachteile.Wie man Daten im Mittelstand zum Fliegen bringtLaut Stephan beginnt es mit Wissenstransfer in Geschäftsführung, Aufsichtsräten und Teams. Denn oft fehlt das grundlegende Verständnis dafür, wie Daten Mehrwert erzeugen.Beispiel: KI-Modell und fehlende AbstimmungEin Praxisbeispiel zeigt, wie ein KI-Projekt wegen mangelnder Abstimmung scheiterte, obwohl das Modell funktionierte. Fehlende Kommunikation führte dazu, dass der Nutzen nicht erkannt wurde.Datenkultur durch kleine Erfolge und ExperimenteKleine Proofs of Concept helfen dabei, Neugier und Vertrauen aufzubauen. Fehler sind dabei unvermeidlich, entscheidend ist jedoch die Bereitschaft, aus ihnen zu lernen und zu experimentieren.Use Cases vs. PlattformdenkenStephan betrachtet Use Cases als Einstieg und nicht als Endziel. Während sich Plattformansätze für Konzerne lohnen, sollte man im Mittelstand mit überschaubaren Projekten starten und später skalieren.Agentic AI im Mittelstand: Chancen und GrenzenAgentic AI kann die Entwicklungszeit von Proofs of Concept zwar stark verkürzen, eine produktionsreife Umsetzung ersetzt es jedoch nicht. Der Gewinn liegt in der Experimentiergeschwindigkeit und nicht in fertigen Lösungen.Schatten-KI und Risiken im AlltagViele Mitarbeitende nutzen KI bereits, obwohl es noch keine offiziellen Richtlinien gibt. Stephan warnt vor den damit verbundenen Datenschutzrisiken und fordert klare Regeln, Schulungen und Transparenz im Umgang mit KI-Systemen.Prompt Engineering und SicherheitPrompt Injection, Datensicherheit und ethische Grenzen: Stephan erläutert auf humorvolle Weise, wie sich versteckte Befehle in Social Media Texte einschleusen lassen und welche Risiken damit verbunden sind.Vom Use Case zum Business CaseLetztendlich geht es um die Übersetzung technischer Ideen in wirtschaftliche Argumente. Nur wenn Projekte messbare Effekte – etwa in Zeitersparnis – belegen können, überzeugen sie im Mittelstand. Vertrauen und Verständlichkeit sind dafür der Schlüssel.🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Marketing Analytics bewegt sich zwischen harten Zahlen und menschlichem Bauchgefühl. Tiankai zeigt, wie der 5C-Ansatz dabei hilft, Datenstrategien menschlicher und praxisnäher zu gestalten.Erfahre mehr über die Master Class „Marketing & Sales Analyst” des neuen Sponsors Haufe Akademie unter haufe-akademie.de/analyst.Einführung und Thema der FolgeTim eröffnet die Folge mit Tiankai Feng und stellt das Thema vor: Marketing zwischen Zahlen und Gefühl. Beide wollen zeigen, wie analytische Methoden und menschliche Faktoren in einer datengetriebenen Strategie zusammenspielen.Lerne Tiankai kennen: https://www.linkedin.com/in/tiankaifeng/Rückblick auf Tiankais Weg: Musik, Adidas, Analytics, BuchautorTiankai berichtet von seiner beruflichen Laufbahn, die bei Adidas im Bereich Social Listening begann. Später wechselte er in Business Intelligence und beriet Unternehmen in Analytics-Fragen. Heute schreibt er Bücher und verbindet technische Expertise mit menschlicher Perspektive.Mehr über Tiankais Wergegang erfährst du auch in dieser Podcastfolge: https://youtu.be/S3oGdWpO9OA?si=y9ZZdVM-IPiLLaC3Humanizing Data Strategy und neues Buch Humanizing AI StrategySein erstes Buch Humanizing Data Strategy verkaufte sich erfolgreich im Fachbuchmarkt. Aktuell arbeitet er am Nachfolger Humanizing AI Strategy, der den verantwortungsvollen Umgang mit künstlicher Intelligenz behandelt. Beide Werke setzen bewusst den Menschen ins Zentrum technologischer Entwicklungen.Das Buch Humanizing Data Strategy: https://amzn.to/4q5MgnQDas Buch Humanizing AI Strategy:https://amzn.to/4h3NqvZ Kompetenz: Data Literacy und Business-VerständnisKompetenz umfasst sowohl analytisches Know-how als auch Verständnis für Business-Kontexte. Nur wenn Data Professionals die Sprache der Stakeholder sprechen, können sie Wirkung erzielen. Gleichzeitig müssen Business-Seiten Grundkenntnisse in Daten entwickeln, um den Dialog auf Augenhöhe zu führen.Follow the Pain Approach zur Data LiteracyTiankai stellt den „Follow the Pain“-Ansatz vor: Data-Projekte sollten dort beginnen, wo die größten Schmerzpunkte liegen. Stakeholder mit akuten Problemen sind motivierter für neue Lösungen. Dadurch entsteht schneller Mehrwert und Vertrauen in datengetriebene Arbeit.„Follow the Pain bedeutet, dass man nicht mit Big Bang startet und sagt: ‚Alle müssen jetzt Data Literate werden! Wir machen jetzt eine große Akademie und dann sind alle dabei!‘, sondern dass man mit denjenigen startet, bei denen die Schmerzpunkte am größten sind.“Business-Wissen im Team: Generalisten vs. BottlenecksEinige Teams bündeln Business-Verständnis in einer zentralen Rolle, andere verteilen es breiter. Tiankai warnt vor Engpässen, wenn nur Einzelne als Schnittstelle fungieren. Nachhaltiger ist es, wenn alle Teammitglieder zumindest grundlegendes Business-Wissen mitbringen.Shadowing und Beobachtung von StakeholdernEin praktischer Ansatz ist das Shadowing, bei dem Analysten den Alltag von Stakeholdern begleiten. So werden Arbeitsweisen, Entscheidungsprozesse und Herausforderungen greifbarer. Oft zeigen sich dadurch Barrieren in der Datennutzung, die vorher verborgen waren.“Aber ja, für ein Shadowing braucht man natürlich zwei Seiten, die damit einverstanden sind.”Kollaboration statt Service-DenkenZusammenarbeit wird häufig als Service verstanden, bei dem Analytics nur liefert. Tiankai plädiert für Co-Creation, also gemeinsames Erarbeiten von Zielen und Lösungen. Dieses Mindset schafft langfristig bessere Ergebnisse und stärkere Beziehungen.Lerne mehr über Co-Creation in Data & AI Projekte in der Folge mit Marco Geuer:https://www.youtube.com/watch?v=1B9MPmxTFJ8Datenlücken, Naming Conventions und politische HürdenIn Marketing-Kampagnen fehlt oft die Datengrundlage, etwa durch unklare Naming Conventions. Anpassungen erfordern Abstimmungen mit Agenturen oder anderen Teams und sind politisch sensibel. Ehrlichkeit über Datenlücken und proaktive Planung helfen, langfristig bessere Strukturen zu schaffen.Stakeholder-Typen und MotivationGute Kommunikation bedeutet, den Wert von Daten nicht nur rational, sondern auch individuell zu vermitteln. Motivation entsteht, wenn Stakeholder erkennen, wie Analytics ihre eigenen Ziele unterstützt. Unterschiedliche Typen wie „Believer“ und „Skeptiker“ erfordern angepasste Ansprache.„Aber wie ich immer sage, ist das nur die eine Hälfte der Kommunikation. Die andere Hälfte ist der individuelle Wert, den es für die jeweiligen Personen, mit denen man arbeitet, hat.”Kommunikation je nach Ebene: Operative vs. ExecutivesJe nach Ebene unterscheiden sich die Erwartungen an Informationen. Operative Mitarbeiter brauchen Details für Entscheidungen, Executives dagegen schnelle Zusammenfassungen. Wer Kommunikationsstil und -medium anpasst, erreicht schneller Akzeptanz und Vertrauen.Hier findest Du die Email-Charta: https://www.emailcharter.infoKreativität, Fehlerkultur und ExperimenteInnovation erfordert die Freiheit, Experimente zu wagen. Eine offene Fehlerkultur fördert psychologische Sicherheit und ermöglicht kreatives Arbeiten. Formate wie „Fuckup Nights“ können helfen, aus Fehlern zu lernen und Wissen zu teilen.Ethik, Datenschutz und RisikoakzeptanzIm Umgang mit Daten spielen Ethik und Datenschutz eine zentrale Rolle. Bias in Algorithmen oder unsaubere Datennutzung bergen Risiken, die nur interdisziplinär adressiert werden können. Ziel ist es, akzeptable Risiken zu definieren und pragmatische Lösungen zu finden.„Um damit richtig umzugehen, muss man cross-funktional arbeiten und die richtigen Leute mit an Bord holen, um diese Dinge zu identifizieren und zu minimieren. Das heißt, wenn man in einem Unternehmen Ethics-Experten hat, kann man diese hinzuziehen. Das Gleiche gilt für Diversity-Inclusion-Experten. Wenn es um Datenschutz-Themen geht, kann man natürlich auch die Legal-Teams hinzuziehen.”Quintessenz des 5C-Ansatzes und AusblickTiankai fasst den 5C-Ansatz zusammen: Kompetenz, Kollaboration, Kommunikation, Kreativität und Conscience. Im Kern geht es darum, den Menschen konsequent ins Zentrum von Datenstrategien zu stellen. Sein Buch bietet dafür Orientierung, und das kommende Werk über AI knüpft daran an.🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Daten spielen in der Social-Media-Strategie eine zentrale Rolle, doch oft werden Likes und Reichweite fälschlicherweise als wichtigste Erfolgsindikatoren gewertet. Jens Wiese und Tim erklären, welche Kennzahlen wirklich relevant sind und wie Unternehmen Daten sinnvoll einsetzen können.Daten in der Social-Media-StrategieTim und Jens beginnen mit der Frage, wie Daten die Grundlage für Social-Media-Strategien bilden können. Sie machen direkt deutlich, dass Likes und Follower keine belastbare Strategie darstellen.[Anzeige] Weiterbildung mit DistartDistart ist einer der führenden, zertifizierten Anbieter geförderter, topaktueller Weiterbildungen zu den Themen Online-Marketing, Digitalisierung und KI. Mehr Informationen findest du unter: https://distart.de/datendurstWer ist Jens Wiese?Jens erzählt von seiner Rolle als Mitgründer der AllFacebook Marketing Conference. Heute arbeitet er als Berater für Social-Media-Strategie mit Unternehmen jeder Größe zusammen.Lerne Jens Wiese kennen: https://www.linkedin.com/in/jens-wiese/Likes sind keine StrategieJens Wiese erklärt, warum Unternehmen oft in die Falle tappen, jede Zahl als KPI zu betrachten. Wirklich relevant sind nur Kennzahlen, die zu den Unternehmenszielen beitragen, etwa Umsatzsteigerung oder Bewerbungen.„Das sind wirklich Zahlen, die aussagen, wie die Performance deines Gesamtunternehmens aussieht. KPI sind aber nicht, wie viele Likes du bekommst, wie viele Fans oder was auch immer du hast, weil deinem Unternehmen geht es nicht besser dadurch, dass du 1000 oder 1500 Fans oder Follower hast.”Unternehmensziele statt isolierter KennzahlenSocial Media sollte nicht isoliert betrachtet werden, sondern muss zu den langfristigen Unternehmenszielen beitragen. Dazu gehören beispielsweise Umsatzsteigerung, Recruiting oder Kundenzufriedenheit.Das ACCRA-Framework als OrientierungTim stellt das ACCRA-Framework mit den Kategorien Awareness, Consideration, Conversion, Retention und Advocacy vor. Es schafft eine klare Struktur, um KPI entlang der Customer Journey zu verorten.„Ja, und da sehe ich immer, dass es einfach viel zu kurz gedacht wird. Also es wird immer dieser erste Aspekt, hey, ich möchte die Aufmerksamkeit haben, der wird hochgehalten, aber alles, was dahinter kommt, überhaupt nicht mehr beachtet, ja, oder auch nur weiter bearbeitet.”Silodenken und fehlende SchnittstellenOft bleibt Social Media in einem eigenen Silo gefangen. Dadurch fehlen Verbindungen zwischen den Bereichen Marketing, Vertrieb, HR oder Kundenservice.Praxisbeispiele für DatennutzungJens zeigt, wie Leads aus Social Media in CRM-Systeme oder Newsletter überführt werden können. Wichtig ist, Daten nicht nur zu sammeln, sondern sie auch aktiv weiterzuverarbeiten.Paid vs. Organic SocialOrganische Reichweite ist volatil und schwer planbar. Mit Paid-Kampagnen lassen sich dagegen verlässliche Ergebnisse und messbare Conversions erzielen.„Diese hohen Erwartungen, die es an Organic gibt, kann ich überhaupt nicht unterstreichen, weil das Organic am Ende ja eine Blackbox ist. Ich schmeiße da was rein und je nachdem, wie der Algorithmus heute drauf ist, bekomme ich entweder irgendwie Reaktionen oder aber auch mal keine.”Reichweite und Relevanz differenzierenReichweite ist nur dann wertvoll, wenn sie die richtige Zielgruppe erreicht. Entscheidend ist die Qualität der Kontakte, nicht ihre Masse.Qualität von Likes und EngagementLikes sind erst strategisch relevant, wenn sie von Personen aus der Zielgruppe oder von Meinungsführern stammen. Likes von eigenen Mitarbeitenden haben dagegen nur geringen Wert.Datenqualität und Audience-DifferenzierungIm Paid-Bereich lassen sich Zielgruppen klarer analysieren und bewerten. So kann unterschieden werden, welche Zielgruppen qualitativ wertvolles Engagement liefern.„Also wenn wir merken, die Audiences oder die Leads, die uns Social Media jetzt rüber reicht zu E-Commerce, haben einen ganz bestimmten Cost per Conversion. Und der ist bei Social Media besonders niedrig. Dann kann man sagen, das ist gut. Oder man kann sagen, okay, die haben uns vielleicht mehrere Audiences oder Leads überreicht und mehrere Gruppen davon. Die Gruppe war gut, die Gruppe war nicht so gut, hiervon sollten wir mehr machen, davon weniger. Diese Differenzierung, die fehlt in der Praxis viel zu oft.”Budget-Kämpfe und fehlender WissenstransferZwischen Social Media und Performance-Marketing entstehen oft Budget-Konflikte. Fehlendes Wissen auf Entscheider-Ebene verschärft diese Probleme zusätzlich.Harte vs. weiche Ziele im Social MediaOrganische Aktivitäten zielen in der Regel auf Reichweite und Engagement ab. Paid-Kampagnen können hingegen harte Kennzahlen wie Conversions oder Leads abbilden.Balance zwischen Nutzer- und UnternehmenszielenUnternehmen müssen einen Mittelweg finden zwischen Inhalten, die die Nutzer unterhalten, und solchen, die die Unternehmensziele unterstützen. Nur so entsteht langfristig Relevanz.Themenfelder und langfristige RelevanzEine klare Definition von Themenfeldern sorgt für Konsistenz im Content. So bauen Unternehmen Vertrauen auf, schaffen nachhaltig Communities und vermeiden Beliebigkeit.Community-Interessen vs. UnternehmenszieleDie Likes und Interessen der Community können als Orientierung dienen, sollten aber nicht die alleinige Grundlage für die Strategie sein. Wichtiger ist eine Kombination aus Unternehmenssicht und externer Resonanz.Erwartungsmanagement und Ressourcen-RealitätSocial-Media-Erfolge hängen oft von den verfügbaren Ressourcen ab. Ein realistisches Erwartungsmanagement verhindert Frustration und falsche Vergleiche mit viralen Ausnahmen.Stakeholder-Management und interne SchnittstellenSocial-Teams müssen interne Abteilungen als Stakeholder aktiv einbinden. So lassen sich Ziele abstimmen und unnötige Konflikte vermeiden.Datenzugang, Silos und KulturproblemeEin großes Hindernis sind fehlende Zugriffsrechte auf zentrale Systeme wie Analytics. Oft sind organisatorische Silos die Ursache und nicht technische Barrieren.„Da habe ich einfach unglaubliche Silos, die keiner aufbricht. Die gibt es in jeder Ecke. Das HR ist jetzt ein Teil, aber PR ist vielleicht irgendwie noch ein anderer, Sales, was auch immer. Ich habe diese ganzen Silos und dass die nicht aufgebrochen werden in den Unternehmen ist für gutes, ich will sogar sagen Marketing insgesamt, ein sehr großes Problem.”Case: Social Media als UmsatztreiberJens berichtet von einem Tourismusunternehmen, das eine Sonderöffnung erfolgreich über Social Media kommuniziert hat. Der direkte Umsatzbeitrag konnte dadurch klar nachgewiesen werden.Reporting richtig ausrichtenReportings sollten immer an den Bedürfnissen der internen Zielgruppe ausgerichtet sein. Statt vieler unnötiger Kennzahlen braucht es wenige, relevante KPI, die für Entscheider nachvollziehbar sind.🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community:👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAMWir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Tim spricht mit Levi über gängige Missverständnisse im Social Listening. Gemeinsam räumen sie mit Mythen auf und stellen effektive Methoden vor.Social-Listening-Mythen, die du kennen solltestTim begrüßt Levi von CURE Intelligence. Er arbeitet seit vielen Jahren im Bereich Media Listening und Data Engineering. Gemeinsam sprechen sie über die Entwicklung von Social Listening und darüber, warum es mehr ist als reines Monitoring.Lerne Levi kennen: https://www.linkedin.com/in/leviveiga/ Wer ist Levi Távora Veiga?Levi berichtet von seinen Anfängen als Werkstudent bis hin zu seiner heutigen Position als Managing Director bei CURE Intelligence. Das Unternehmen bietet Leistungen in den Bereichen KI-Anwendungen, Data Engineering und Digital Marketing an.Lerne das CURE Intelligence kennen: https://www.linkedin.com/company/cure-intelligence/ Was Social Listening eigentlich istBeim Social Listening wird bewusst gelauscht, was Stakeholder im Internet über Marken, Produkte oder Themen sagen. Dazu zählen Wortmeldungen in Social Media, aber auch Foren, Bewertungsportalen, News-Seiten und vielen weitere Quellen.[Anzeige] Weiterbildung mit DistartDistart bietet auch geförderte Weiterbildungen zum Thema „Social Media Listening“ an. Einblicke in die Praxis sind ebenfalls Teil des Angebots. Mehr Infos gibt es unter: https://distart.de/datendurst Unterschied zwischen Social Listening und Social MonitoringMonitoring beschreibt die reine quantitative Beobachtung, bei der Daten gesammelt und ausgewertet werden. Listening geht einen Schritt weiter, da es Daten interpretiert, Handlungsempfehlungen ableitet und strategische Relevanz schafft.„Also für mich ist Social Listening das Aktive, also wirklich das bewusste Zuhören, was nicht nur meine Kunden, sondern was meine Stakeholder über mich und meine Produkte im Internet sagen.“Mythos 1: Social Listening funktioniert ohne Sparring zwischen Business und AnalystOhne klare Geschäftsziele und abgestimmte Anforderungen zwischen Fachabteilung und Analysten können keine belastbaren Ergebnisse erzielt werden. Es müssen Business-Know-how und technische Umsetzung zusammenkommen.Mythos 2: Shitstorms lassen sich auch im Nachhinein analysierenDas ist nur bedingt möglich. Wer die Daten nicht während des Ereignisses erfasst, muss entweder historische Daten teuer zukaufen die zwangsläufig Lücken aufweisen oder hat gar keine Datenbasis .Mythos 3: Engagement ist immer gutNicht jede Interaktion ist wertvoll. Um positives von schädlichem Engagement zu unterscheiden, sind Sentiment, Zielgruppen-Fit und Kontext entscheidend.„Das heißt, nicht jedes Engagement ist gut. Beispielsweise spreche ich hier von der Bierbranche. Die generieren unheimlich viel Engagement.“Mythos 4: Ein einmal aufgesetztes Setup hält für immerDatenquellen, Keywords, Schnittstellen und das Nutzerverhalten ändern sich ständig. Ein Setup muss deshalb kontinuierlich gepflegt werden.Mythos 5: Social Listening kann jederGrundkenntnisse sind schnell erworben, für belastbare Reports braucht es jedoch Erfahrung, Training und ein Verständnis für Datenquellen und den Business-Kontext.„Es kann jeder lernen. Ich sage mal so: Jeder hat schon mal Berührungspunkte damit, sogar privat und ohne dass er in einem Unternehmen arbeitet, das Social Listening macht.“Mythos 6: Alle Social-Media-Reports können mit Social-Listening-Tools abgebildet werdenPerformance-Reports, die beispielsweise Reichweite oder Klickzahlen erfassen, gehören nicht ins Listening-Tool. Social Listening liefert hingegen qualitative Analysen zu Inhalten, Themen und Diskussionen.Mythos 7: Social Listening geht datenschutztechnisch gar nichtDie Tools unterliegen europäischen Datenschutzstandards. Entscheidend ist der richtige Umgang mit ihnen: Daten müssen anonymisiert, nur relevante Informationen gespeichert und interne Prozesse etabliert werden.„Man sollte schon gucken, dass man geprüfte Tools einsetzt, also die Datenschutzerklärungen zur Verfügung stellen, vielleicht bei Vertragsabschluss oder sogar beim Test des Tools.“Mythos 8: Alles, was auf Social Media gepostet wird, kann analysiert werdenViele Inhalte bleiben unzugänglich, beispielsweise private Profile, geschlossene Gruppen oder LinkedIn-Beiträge außerhalb der eigenen Unternehmensseite. Tools erfassen nur öffentlich zugängliche Daten und freigegebene Schnittstellen.Datenquellen und blinde Flecken: Facebook, Instagram, LinkedIn & Co.Instagram liefert nur Inhalte von Business-Profilen, Facebook nur von Seiten und von Gruppen bei denen man Administratorrechte hat. Das Gespräch auf LinkedIn lässt sich aktuell nur zu einem sehr kleinen Teil inhaltlich analysieren.Rechtliche, technische und ethische Grenzen im Social ListeningDie Affäre um Cambridge Analytica hat strengere Regeln gebracht. Neben rechtlichen Hürden spielen auch API-Beschränkungen sowie ethische Fragen, beispielsweise zur Profilbildung oder zum Community-Schutz, eine Rolle.Lese mehr über die Cambridge-Analytica-Affäre: https://www.mainzer-medieninstitut.de/facebook-datenmissbrauch-um-cambridge-analytica/ 🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Marco Geuer spricht mit Tim darüber, wie Unternehmen Data- und AI-Strategien systematisch aufbauen sollten. Statt blindem Aktionismus geht es um Business Cases, Datenqualität und cross-funktionale Teams.Einführung ins ThemaTim spricht mit Marco Geuer über die Frage, wie Unternehmen Data und AI strategisch und ganzheitlich angehen können. Der Fokus liegt dabei auf Struktur statt blindem Hype.Wer ist Marco Geuer?Marco ist seit über 25 Jahren im Bereich Data und AI aktiv. Zuletzt war er als Global Head of Data Strategy & AI Solutions bei Fiege tätig. Heute ist er Partner bei Blueforte und berät Unternehmen in Fragen der Datenstrategie.Lerne Marco Geuer kennen: http://linkedin.com/in/marco-geuer-the-data-economist/AI in der Praxis: Von Aktionismus bis Governance-RisikenAuf den Hype um AI reagieren viele Unternehmen mit Aktionismus. Marco sieht die Gefahr, dass die Themen Datenschutz und Governance ohne eine entsprechende Strategie übergangen werden.GenAI auf „Microsoft-Office-Level“Zwischen Begeisterung und Überforderung: GenAI wird wie Microsoft Office genutzt und das mal auf gute, mal auf schlechte Art und Weise. Dadurch bleibt die Differenzierung zwischen Unternehmen gering.Auch spannend: Warum du für ChatGPT optimieren solltest: https://youtu.be/EP_S8__LoJM?si=qLrQjV1KmNPZdD0UDatenschutz und Governance beim Einsatz von AgentenWenn sensible Daten ohne Kontrolle weitergegeben werden, bergen automatisierte Agenten Risiken. Marco plädiert deshalb für klare Governance-Strukturen.AI ist kein Feature, sondern ein PrinzipLaut Jörg Hirt, Chief Innovation Manager bei der REWE Digital GmbH, darf AI nicht als isoliertes Tool verstanden werden. Unternehmen benötigen Baukästen und Plattformen.„Wer bei KI immer noch an Use Cases denkt, hat den Schuss nicht gehört.” Mehr dazu unter: https://www.linkedin.com/posts/joerg-hirt_ai-kifirst-innovation-activity-7332450400505110528-c9NyUnternehmensstrategie als Basis für AI-StrategieMarco betont, dass die Planung von Data und AI im Kern die Planung der Unternehmensstrategie bedeutet, deren Grundlage Vision, Mission und langfristige Ziele sind:„Wenn du dich mit Data und AI Strategie beschäftigst, dann beschäftigst du dich ja eigentlich mit Unternehmensstrategie.“Datenproduktion vs. klassische ProduktionIm Vergleich zur industriellen Fertigung fehlt es in Datenprojekten oft an Standardisierung. Ohne Standardisierung lassen sich jedoch keine skalierbaren Lösungen entwickeln.So standardisierst Du im ersten Schritt Deine Dashboards: https://www.youtube.com/watch?v=qA3B5o0ZvuoCross-funktionale Teams statt Kunden-Lieferanten-DenkenSilos bremsen die Transformation. Erst wenn Business und IT gemeinsam an Prozessen arbeiten, entstehen funktionierende Lösungen.Kultur, Hierarchie und internationale UnterschiedeIn asiatischen Ländern wird kollektivistischer gearbeitet und schneller umgesetzt. Im Westen stehen dagegen oft individuelle Ziele und Hierarchien im Weg.OKRs und multidimensionale ZieleOKRs sollen Silos aufbrechen. In vielen Unternehmen fehlt jedoch die richtige Umsetzung dieses Ansatzes, um Ziele tatsächlich zu erreichen.„Cross-funktionale Arbeit erfordert multidimensionale Denkweise. Wenn du alleine bleibst, bleibst du eindimensional. Wenn du viele unterschiedliche Köpfe zusammenbringst, fängst du an, multidimensional zu denken.”Tesla und Amazon: systemische Transformation statt Use CasesBeide Unternehmen zeigen: Transformation gelingt nicht durch kleine Einzelprojekte, sondern wenn ganze Systeme neu gedacht werden.Bausteine einer Data- und AI-StrategieEine tragfähige Strategie muss sich auf zentrale Elemente stützen. Dazu gehören Business Cases als Startpunkt, kulturelle Anpassungen, IT-Infrastruktur und Datenqualität.Hier geht’s zum Simon-Sinek-Video: https://youtu.be/u4ZoJKF_VuA?si=ZadotBlcFIn-DNNqSo verbesserst Du Deine Datenqualität: https://www.youtube.com/watch?v=8SqRzgfzJh8Advanced Rapid Data Performance Simulation (ARDPS)Mithilfe von ARDPS lassen sich Datenquellen schnell auf ihre Leistungsfähigkeit hin überprüfen. So wird frühzeitig deutlich, ob ein Business Case realisierbar ist.Von Use Cases zu Business CasesErfolgreiche Unternehmen orientieren sich an klaren Business Cases statt an isolierten Use Cases. Entscheidend sind cross-funktionale Teams und Fokus.„Arbeite dich Business Case für Business Case ab und verteile die Ressourcen nicht auf viele Projekte, da dies alle Projekte verlangsamt.”🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Ist „datengetrieben“ wirklich der passende Begriff? Sebastian Wernicke erklärt, warum er den Begriff „data inspired“ bevorzugt und wie Unternehmen Daten tatsächlich nutzen sollten. Im Gespräch mit Tim geht es um Datenmythen, kulturelle Hürden und praktische Tipps für die Transformation.Wer ist Sebastian Wernicke?Seit über 20 Jahren arbeitet Sebastian an der Schnittstelle von Daten, Organisation und Wertschöpfung. Im Podcast teilt er seine Sicht auf die strategische Nutzung von Daten.Lerne Sebastian kennen: https://www.linkedin.com/in/wernicke/Das Buch „Data Inspired“In „Data Inspired“ zeigt Sebastian, warum datengetriebenes Arbeiten eher eine Kulturfrage als ein Technologiethema ist und was Unternehmen oft missverstehen.Das Buch findest du hier: https://www.vahlen.de/wernicke-data-inspired/product/35418267 [Anzeige] Weiterbildung mit DistartEs gibt flexible, förderfähige Online-Kurse rund um KI, Daten und digitales Marketing. Tim hält dort auch regelmäßig Live-Sessions ab.Mehr zu Distart: https://www.distart.de/datendurstKritik am Begriff „datengetrieben“Der Begriff weckt falsche Erwartungen: Daten sollten keine Entscheidungen übernehmen, sondern diese lediglich unterstützen.Datenmythen: Eindeutigkeit, Interpretation, KlarheitDaten sind nicht objektiv, sondern interpretationsbedürftig. Drei typische Missverständnisse behindern ihre produktive Nutzung.Daten als Gesprächsanlass, nicht als LösungDaten liefern nur selten eindeutige Antworten. Sie helfen jedoch dabei, die richtigen Fragen zu stellen und Perspektiven zu klären.Kultur vor Architektur: Der echte Hebel für TransformationTechnische Systeme allein reichen nicht aus. Erst wenn Kultur und Entscheidungsprozesse datenoffen sind, kann eine Transformation gelingen.Mehr zu Daten und Kultur: https://youtu.be/4ng046uNIAE?si=-rhx4zG53bea8t2I Die Rolle des Chief Data OfficersEin CDO benötigt ein Mandat, ein Netzwerk und eine Einbindung. Wer das Thema lediglich delegiert, wird oft scheitern.Daten als bilanzierbares AssetDaten werden zunehmend als wirtschaftliches Gut behandelt. In Projekten lohnt es sich daher, ihren potenziellen Wert zu betrachten.Welche Daten gelöscht werden solltenNicht alle Daten sind nützlich. Veraltete oder unstrukturierte Informationen verursachen in der Regel nur Kosten.Die vier Reiter der Daten-TransformationSebastian nennt vier typische Hürden bei der organisatorischen Nutzung von Daten und zeigt auf, wie man ihnen begegnen kann.Mit Daten und Kreativität zum Erfolg: https://youtu.be/I_uvUjL3ICg?si=l2EGDE_nigGDg8-e Leuchtturmprojekte als FehleinschätzungEinzelne Vorzeigeprojekte erzielen oft keine nachhaltige Wirkung, da sie selten die gesamte Organisation überzeugen.Warum viele Prototypen scheiternViele gute Ideen scheitern, weil sie nie für den produktiven Einsatz gedacht waren und wichtige Anforderungen ignorieren.Der menschliche Faktor in der DatenarbeitTechnik allein löst keine Konflikte. Ohne die Einbindung der Menschen bleibt jeder Use Case eine Insellösung.Data Informed, Data Driven, Data InspiredDaten als Entscheidungsgrundlage? Ja, aber noch wirkungsvoller sind sie als Inspiration für strukturelle Veränderungen.🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Smarter Kundenservice durch KI? Wie funktioniert das konkret? Ralf Mühlenhöver spricht mit Tim über echte Use Cases entlang der gesamten Customer Journey: Vor, während und nach dem Kontakt.Wer ist Ralf Mühlenhöver?Ralf ist seit 25 Jahren im Bereich Customer Experience und Technologie aktiv, hat zwei Unternehmen gegründet und verkauft. Heute arbeitet er freiberuflich als Berater mit Fokus auf Technologie im Kundenservice.Lerne Ralf kennen: https://www.linkedin.com/in/ralfmuehlenhoever/Use Cases: Vor dem KundenkontaktKundendaten helfen, Servicekontakte im Vorfeld zu vermeiden. Das Teilen von Daten und Informationen zwischen Marketing, Logistik und Kundenservice verbessert die Planung und Reaktionsfähigkeit.„The best service is no service“: Fehler präventiv vermeidenAuch wenn diese Redewendung vielleicht ein Fiebertraum ist: Wenn alle Abteilungen gut zusammenarbeiten, wird Kundenkontakt oft überflüssig. Durch Daten und Kommunikation lassen sich viele Probleme voraus ahnen und vermeiden.„Fehler passieren überall. Wenn wir es aber schaffen, diese Daten frühzeitig zu nutzen, dann können wir uns darauf einstellen, was passiert.”Predictive Analytics: Kaffeemaschinen & Lifecycle-AngeboteMit Predictive Maintenance und Daten aus dem IoT-Umfeld können Unternehmen passende Cross- und Upselling-Angebote automatisieren. Beispiel: Nespresso nutzt Lebensdauer-Prognosen für gezieltes Marketing.Intent-Erkennung und DunkelverarbeitungKI erkennt den Zweck einer Anfrage automatisch. Standardanfragen wie „Where is my order?“ können komplett automatisiert und direkt beantwortet werden.Agentische KI vs. klassische Automatisierung„Agentic AI“ steht für KI-gesteuerte Prozessketten. Wo heute noch einfache Automatisierung hilft, übernehmen künftig autonome Systeme ganze Abläufe.„Agentische KI [...] hat irgendwie nichts mit dem Agenten im Callcenter zu tun, sondern es ist tatsächlich ein Wort, was sich jetzt neu prägt, wo es darum geht, komplette Prozesse durch eine Maschine erledigen zu lassen.”Empathie: Mensch vs. KI im SalesAuch wenn KI nur Empathie simuliert, wird sie teils als einfühlsamer wahrgenommen als echte Mitarbeiter: Je nach Kontext ein Vorteil oder Risiko im Sales-Prozess.Hyperpersonalisierung mit CDPsStatt grober Zielgruppenansprache ermöglichen Customer Data Platforms (CDPs) individuelle Kommunikation auf Basis historischer Kundendaten: Automatisiert und skaliert.„Aufgrund der Menge der Daten, die ich im CRM oder in meiner Customer Data Platform, CDP, über dich gesammelt habe, kann ich dann eben auch individualisierte Angebote machen.”AI-Shoring: Vom Callcenter zur CloudUnternehmen lagern Services zunehmend in Near- und Offshore-Regionen aus. Das geschieht inzwischen nicht mehr nur menschlich, sondern KI-basiert. Ralf spricht hier von „AI-Shoring“.Missbrauchspotenziale durch VoicebotsTools wie Blend.ai bieten aggressive Automatisierung im Outbound. Daraus entsteht auch ein hohes Missbrauchspotenzial für Scam-Calls. Schutzmechanismen und Regulationen sind gefragt.Kundenrouting & Voice Verification: Auslaufmodell?Sprachbiometrie war lange ein Sicherheitsfeature. Doch in Zeiten stimmgenerierender Tools und Deep Fakes wird diese Verifikationsmethode angreifbar. Alternativen sind gefragt.Echtzeitübersetzung bei Booking.com & GoogleLive-Übersetzung ermöglicht internationalen Kundenservice ohne Sprachbarrieren. Erste Umsetzungen von Booking und Google zeigen, was technisch möglich ist.Co-Pilot im Kundenkontakt: Assistenz statt AutopilotAgent Assist Tools geben während des Gesprächs Empfehlungen und Inhalte. Das entlastet Mitarbeitende und verbessert Qualität und Bearbeitungszeiten.Gesprächszusammenfassung & Einsparpotenzial bei EnBWKI erstellt nach dem Call automatisch Gesprächsnotizen. Das spart pro Fall bis zu 60 Sekunden. Bei EnBW wurde so die Qualität erhöht und gleichzeitig die Kosten gesenkt.Predictive NPS & Qualitätsanalyse mit KIAls Alternative zu Umfragen analysiert die KI alle Kundenkontakte, um Zufriedenheit zu prognostizieren.„Und daraus kann ich ein NPS predicten, mit dem großen Vorteil, dass ich 100% der Calls in meiner, ja, in meiner ,Umfrage’ dann drin habe und nicht eh schon den ersten Filter drin habe.”Auch Gespräche, die nicht den Qualitätsstandards entsprechen, lassen sich so automatisch erkennen und nachverfolgen.🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community:👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAMWir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
ChatGPT, AI Overviews und GEO: Alles nur Buzzwords? Oder verändert sich die Sichtbarkeit in Suchmaschinen gerade? Stefan Kiecker spricht mit Tim über den Stand bei Generative Engine Optimization (GEO) und erklärt, warum 90% davon nach wie vor klassisches SEO bleibt.Wer ist Stefan Kiecker und was macht SEOCATION?Stefan ist Senior SEO Consultant bei SEOCATION. Sein Fokus liegt auf technischem SEO, insbesondere bei datengetriebenen und KI-bezogenen Themen.Lerne Stefan kennen: https://www.linkedin.com/in/stefan-kiecker/Lerne SEOCATION kennen: https://www.linkedin.com/company/seocation/Personal Branding mit der „SEO-Brille"Auf LinkedIn ist Stefan bekannt für seinen augenzwinkernden Auftritt mit der pixeligen SEO-Brille. Ein Beispiel, wie humorvolles Personal Branding Reichweite schafft.Was bedeutet „Ohne SEO kein GEO"?Trotz des KI-Trends bleibt SEO die technische Grundlage für Sichtbarkeit. 90 % der Optimierung für AI-Overviews oder ChatGPT-Antworten basieren weiterhin auf klassischem SEO.[Anzeige] Weiterbildung mit DistartDistart bietet geförderte Weiterbildungen zu Marketing, Digitalisierung und KI an. Auch mit Einblicken aus der Praxis. Mehr Infos unter: https://distart.de/datendurstKritik am GEO-Hype: Sales-Fokus statt SubstanzDer Begriff GEO (Generative Engine Optimization) wird aktuell von vielen Marketing-Anbietern genutzt. Häufig ohne echtes technisches Verständnis.Hier geht’s zur Begriffsfindung mit Olaf Kopp: https://bit.ly/40rGTE0Wie funktionieren AI Overviews technisch?Google nutzt eigene Suchergebnisse, um AI-Overviews zu generieren. Dabei können auch irrelevante Quellen von hinteren Suchergebnisseiten einfließen.Schau dir auch den Beitrag von Matthäus Michalik an: https://bit.ly/44E1U0FWarum Suchmaschinen durch KI nicht abgelöst werdenChatbots wie ChatGPT verwenden Suchmaschinen als Basis für Antworten. Die klassische Websuche bleibt damit zentral für die Sichtbarkeit.Fehlerquellen bei AI Overviews und ChatGPTFalsche Antworten, veraltete Daten oder sogar absurde Empfehlungen wie „Klebstoff essen” zeigen die Grenzen aktueller Systeme.Product Feeds und geplante Werbung in ChatGPTKünftig sollen Unternehmen eigene Datenfeeds für KI-Systeme bereitstellen können. Auch Werbung in ChatGPT ist bereits angekündigt.Begriffswirrwarr: GEO, LLMO, AIO & Co.Die Szene diskutiert Begriffe wie GEO, LLMO (Large Language Model Optimization) oder AIO. Doch am Ende wird sich der Begriff durchsetzen, den die meisten nutzen.Hier geht es zur Begriffsdiskussion: https://bit.ly/44DHe98Literatur zu Grounded Theory:https://bit.ly/3G16NI0https://bit.ly/4lrMXV3https://bit.ly/4klrjB8Google Trends Analyse: Was setzt sich durch?Daten zeigen: GEO erlebt weltweit einen massiven Anstieg an Suchinteresse. LLMO wird bislang seltener gesucht.Google Trends zur Begriffsfindung:(I) https://bit.ly/3ZU17pY(II) https://bit.ly/4ew4VUjMessbarkeit von GEO: Aktueller Stand und ToolsDie Google Search Console zeigt keine separaten Daten zu AI Overviews. Externe Tools wie Sistrix oder SEMrush liefern erste Einblicke.AI Overviews in den USA und UK: Ein Blick in die ZukunftIn den USA sind AI Overviews bereits für rund 25% der Suchanfragen aktiv. Mit spürbaren Traffic-Verlusten für Inhalteanbieter.Auswirkungen auf Journalismus und Content-ProduzentenKI kann Informationen zusammenfassen, doch dafür braucht es weiterhin hochwertige Quellen. Die Gefahr: Kleinere Anbieter werden verdrängt.Sichtbarkeit in ChatGPT verbessern: Trainingsdaten & Social SignalsGezielte Nennungen auf hochwertigen Plattformen wie Reddit oder Wikipedia erhöhen die Chance, in KI-Antworten aufzutauchen.So recherchiert ChatGPT: https://bit.ly/4lulAd5🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Wie wird man Chief Data & Analytics Officer (CDAO) bei einem internationalen Unternehmen wie L’Oréal? In dieser Folge spricht Tim mit Franziska über ihren Karriereweg, aktuelle Herausforderungen im Team und warum ein Umzug ein gutes Beispiel für Transformation ist.Intro & Vorstellung Franziska EickhoffFranziska ist Chief Data & Analytics Officer für Deutschland, Österreich und die Schweiz bei L’Oréal. Im Podcast stellt sie sich vor und gibt erste Einblicke in ihre Rolle.Erfahre mehr über Franziska: https://www.linkedin.com/in/franziska-eickhoff/ Aktuelle Karrieremöglichkeiten bei L’Oréal: https://careers.loreal.com/de_DE/content/HomeEinstieg in die CDAO-Rolle bei L’OréalNach zwölf Jahren in der Energiebranche verbindet Franziska bei L’Oréal ihre Datenerfahrung mit der Begeisterung für Beauty. Führung, Strategie und Kommunikation prägen ihre neue Rolle.Vom Energiesektor zur BeautybrancheDie Datenarbeit bleibt ähnlich, aber das Marktumfeld ist deutlich dynamischer. Schnellere Trends und stärkere Kundennähe erfordern mehr Flexibilität.Datenarbeit entlang der WertschöpfungsketteIhr Team begleitet Daten von der Produktion über die Logistik bis zur Marketingkampagne. Ziel ist es, datenbasierte Entscheidungen in allen Bereichen zu unterstützen.Drei zentrale Datenbereiche bei L’OréalL’Oréal strukturiert Datenprozesse in Operations, Retail/E-Commerce und Marketing. Jeder Bereich bringt spezifische Herausforderungen mit sich.Teamstruktur und SpezialisierungDie Teammitglieder sind bisher nach Marken gegliedert, sollen künftig aber entlang der Geschäftsprozesse organisiert werden. So entstehen mehr fachliche Tiefe und Synergien.Aufgabenverteilung zwischen Analysten und EngineersEs gibt eine Mischung aus cross-funktionalen Leads und spezialisierten Rollen pro Bereich. So bleibt das Team technisch fundiert und gleichzeitig nah an den Fachabteilungen.Karriereweg zur Führungskraft im Data-BereichFranziska berichtet von ihren Anfängen, früher Führungsverantwortung und wie sie ihr Digital-Team aufgebaut hat. Unterstützung und strukturiertes Lernen waren entscheidend.Lernen, Weiterentwicklung und UnternehmenskulturOnboarding und Führungstrainings bei L’Oréal helfen dabei, das Unternehmen und seine Kultur zu verstehen. Das Wissen um die „Wurzeln“ der Organisation ist essentiell für erfolgreiche Veränderungen.Tagesablauf als CDAOFranziskas Alltag besteht aus Teamführung, Projektabstimmungen und strategischer Planung. Zeitfenster für konzentriertes Arbeiten sind fest im Kalender eingeplant.Strategische Führung und internationale AbstimmungSie arbeitet eng mit europäischen und globalen Data-Teams zusammen. Das Ziel: nationale Anforderungen mit internationalen Standards verbinden.Zukunftsmodell: Zentrale Zusammenarbeit in EuropaFranziska plant mehr gemeinsame Datenlösungen mit anderen Ländern. Das lokale Team bleibt, aber die Entwicklung wird vernetzter und zentraler gedacht.Transformation erklärt am Beispiel eines UmzugsDer Wandel wird wie ein Umzug beschrieben: aussortieren, packen, transportieren – bei laufendem Betrieb. Das Ziel ist ein gemeinsames „Mehrfamilienhaus“ für alle Datenlösungen.Typische operative Herausforderungen im DatenteamFehlende Datenlieferungen, technische Fehler oder manuelle Prozesse gehören leider zum Alltag. Monitoring und pragmatische Lösungsansätze helfen bei der Fehlerbehebung.Umgang mit Stakeholdern bei DatenproblemenStatt Schuldzuweisungen gibt es transparente Kommunikation und schnelle Koordination. Die Verantwortung wird gemeinsam getragen.Persönliches über Franziska: Ausgleich zum JobSie lebt am Niederrhein, engagiert sich sozial und liebt das Kochen. Mit drei Katern ist bei ihr auch privat einiges los.Kurzbio von Franziska EickhoffFranziska ist seit August 2023 als Chief Data & Analytics Officer bei L’Oréal Deutschland, Österreich und der Schweiz tätig und leitet ein Team von 18 Mitarbeitenden. Zuvor war sie mehr als zehn Jahre in der Energiebranche tätig, zuletzt als Head of Data Analytics & Engineering bei E.ON. Mit ihrer Expertise in den Bereichen Data Science, digitale Transformation und Marketing treibt sie bei L’Oréal eine datengetriebene Unternehmenskultur sowie den Einsatz ethisch verantwortungsvoller KI voran.🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Wie entwickelt sich der Arbeitsmarkt für Data- und Analytics-Talente? Und was macht Unternehmen wirklich attraktiv für diese Zielgruppe? Tim Verhoeven von Indeed liefert datenbasierte Antworten zu diesen und weiteren Themen, darunter Jobtrends und „Work Wellbeing”.Wer ist Tim Verhoeven und was ist Talent Intelligence?Tim ist als Senior Manager für Talent Intelligence bei Indeed tätig. Er befasst sich mit datenbasierten Entscheidungen in den Bereichen HR und Talentstrategie.Lerne Tim kennen: https://www.linkedin.com/in/tim-verhoeven83/Podcast HR Data Dudes: Datenbasierte HR-OptimierungIn dem Podcast „HR Data Dudes“ diskutiert Tim mit anderen Fachleuten darüber, wie HR mithilfe von Daten fundierter handeln kann. Das Ziel besteht darin, bauchgefühllastige Entscheidungen abzulösen.Hier geht’s zum Podcast: https://hr-data-dudes.blogs.audiorella.com/Der Datenschatz in HR und wie man ihn hebtViele Unternehmen verfügen über wertvolle HR-Daten, sind sich dessen jedoch nicht bewusst oder nutzen sie nicht. Talent Intelligence hilft dabei, diese Daten zu analysieren und praktisch zu nutzen.Was bedeutet Talent Intelligence konkret im HR-Kontext?Der Begriff umfasst alle datenbasierten Handlungen in den Bereichen Recruiting, Retention und Talentmanagement. Ziel ist es, fundierte Entscheidungen über Mitarbeitende zu treffen.[Anzeige] Sponsor: Weiterbildung mit DistartDistart bietet geförderte Online-Weiterbildungen zu den Themen Marketing, Digitalisierung und KI. Auch Praxis-Sessions mit Expert:innen sind Teil des Angebots.Erfahre mehr zu Distart: https://www.distart.de/datendurstArbeitsmarktdaten bei Indeed: Vier DatenclusterUm Einblicke in den Arbeitsmarkt zu gewinnen, nutzt Indeed Verhaltens-, Hintergrund-, Profil- und Forschungsdaten. Durch das Crawlen externer Jobquellen ist die Datenbasis besonders umfassend.Hiring Lab und Open Source DatenportalDas Hiring Lab ist das Arbeitsmarktforschungsinstitut von Indeed. Neben klassischen Reports bietet es auch ein Open-Source-Datenportal mit regelmäßig aktualisierten Marktkennzahlen.Das Hiring Lab: https://www.hiringlab.org/de/ Das Datenportal: https://data.indeed.com/#/ Nutzung der Daten für Benchmarks und MarktanalysenUnternehmen nutzen die offenen Daten von Indeed, um ihre eigene Recruiting-Leistung einzuordnen. So lassen sich die Effekte von Kampagnen objektiv bewerten.Remote-Quote: Entwicklung und Bubble-FallenWährend die Gesamt-Remote-Quote seit eineinhalb Jahren stagniert, ist sie in der Tech- und Datenbranche deutlich höher. Die persönliche Wahrnehmung wird oft durch die eigene Blase verzerrt.Remote-Anteil im Data- und Analytics-BereichIn der Kategorie „Data & Analytics” sind etwa 46–48 % der Jobs remote möglich. Zum Vergleich: In Gesamtdeutschland liegt der Anteil bei rund 15 %.Entwicklung des Fachkräftemarkts seit 2020Nach einem Rückgang während der Corona-Pandemie stieg die Nachfrage nach Data-Talenten rasant an. Seit 2022 ist das Niveau wieder gesunken, was unter anderem auf wirtschaftliche Unsicherheit und KI-Substitutionseffekte zurückzuführen ist.Jobtypen im Vergleich: Analyst, Scientist, EngineerIm Vergleich haben Data Scientists mehr Bewerbende pro Job als Engineers. Besonders gesucht sind: Data Engineers, bei denen der Bewerberandrang deutlich geringer ist.Wettbewerb und Bewerberqualität in der PraxisDie Zahl der Jobsuchenden sagt wenig über deren Eignung aus. Viele Bewerber verfügen nur über Grundkenntnisse, die in einem komplexen Jobumfeld nicht ausreichen.Warum Work Wellbeing gerade jetzt wichtig istGerade in wirtschaftlich unsicheren Zeiten ist die Bindung von Mitarbeitern entscheidend. Unternehmen, die ihre Data-Talente halten wollen, sollten in Zufriedenheit investieren, denn Know-how-Verlust ist teuer.Mehr über Work Wellbeing: https://de.indeed.com/lead/was-hat-wohlbefinden-am-arbeitsplatz-mit-unternehmenserfolg-zu-tun-alles Studie: Zusammenhang von Zufriedenheit und UnternehmenserfolgEine Studie der Oxford University zeigt: Unternehmen mit hoher Mitarbeiterzufriedenheit weisen eine niedrigere Fluktuation und bessere wirtschaftliche Kennzahlen auf. Zentrale Treiber sind dabei Führung, Vertrauen und Transparenz.Die Studie der Oxford University:https://www.ox.ac.uk/news/2019-10-24-happy-workers-are-13-more-productive Das Buch von Tim und Marcel: https://www.amazon.de/-/en/Recruiting-Analytics-Erfolg-Driven-Intelligence/dp/3791059475 🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
Sichtbarkeit im Netz folgt neuen Spielregeln. Tim spricht mit Robin Reuschel darüber, wie KI zur Gatekeeperin geworden ist und welche Auswirkungen das auf deinen Content hat. Gemeinsam zeigen sie dir, welche Tools, Formate und Denkweisen jetzt zählen, damit du in der Welt von ChatGPT & Co. sichtbar bleibst.Begrüßung und VorstellungRobin wird als heutiger Gast eingeführt mit Einblicke in seinen Hintergrund zwischen Finanzmathematik, Strategieberatung und Technologie.Vernetze dich mit Robin: https://www.linkedin.com/in/rreuschel/ Oder schau dir sein Unternehmen an: https://roover.eu/ [Anzeige] Hinweis auf den SponsorTim erklärt dir, was du tun kannst, um deine Skills zu verbessern. Eine Möglichkeit: Distart bietet dir viele verschiedene geförderte Weiterbildungen zu Online-Marketing, KI und Social Media.Erfahre mehr zu Distart: https://www.distart.de/datendurstWarum SEO nicht mehr funktioniertRobin erläutert, weshalb klassische SEO-Strategien heutzutage und zukünftig an Wirksamkeit verlieren und welche Rolle ChatGPT im Suchprozess spielt.Kaufentscheidungen mit KIVon Produktempfehlung bis zur finalen Entscheidung: Anhand eines persönlichen Beispiels beschreibt Robin, wie Kaufprozesse zunehmend an KI ausgelagert werden.Gemini und die neue SuchlogikEin Blick auf Googles KI „Gemini” zeigt die veränderte Darstellung von Suchergebnissen, die immense Auswirkungen auf Traffic und Sichtbarkeit hat.Der Beitrag von Fabian dazu: https://www.linkedin.com/posts/fabianjaeckert_seo-google-aioverviews-activity-7321431019591524353-f7GR/ Neue Wettbewerber im KI-SuchmarktNeben Google drängen mit neuen Suchgewohnheiten und technologischem Potenzial auch Meta AI, Perplexity und andere Anbieter auf den Markt.KI als strengere GatekeeperinRobin erläutert, warum KI viel selektiver filtert als klassische Suchmaschinen, wodurch sich eine reduzierte Ergebnisvielfalt und ein höherer Bias ergeben.Urheberrecht und Content-VerwertungDiskussion über den Einfluss von KI auf Inhalte, Urheberschaft und Monetarisierung – inklusive der Kritik von Mario Fischer.Mario Fischer zu KI und Urheberrecht: https://www.linkedin.com/posts/mariofischer_das-ist-kein-ai-overview-mehr-was-google-activity-7321413100744712192-UfrG Rankingverlust trotz Google-ToppositionKerstin Schiefelbeins Case zeigt, dass klassische Rankings kaum noch eine Rolle spielen, wenn KIs eigene Antworten generieren.Die Case Study von Kerstin zu KI und Google Rankings: https://bit.ly/45uyp2kWie KI Inhalte finden und bewertenWie genau funktioniert der technische Ablauf einer KI-Suche? Robin erklärt den Prozess von der Intent-Erkennung über die semantische Extraktion bis hin zum Retrieval aus mehreren Quellen.Strategien für KI-OptimierungEntscheidend sind folgende Kriterien: Crawlbare Inhalte, Chunking, Autorität durch Referenzen und Aktualität.Hinweis: Beim Chunking werden Inhalte in kleine, strukturierte Informationshappen gegliedert, damit sie leichter von KI und Nutzern verarbeitet werden können.Unterschiede zur klassischen SEOAnstelle allgemeiner Keyword-Optimierung verlangt AI-Search spezifischere, nutzenorientierte Inhalte.Bing-Optimierung für ChatGPT-RelevanzDa ChatGPT auf die Bing-Suche zurückgreift, wird Bing-SEO zum entscheidenden Faktor für die Sichtbarkeit.Warum KI auch falsche Informationen liefertMithilfe eines Beispiels erklärt Robin die Ursachen für Halluzinationen in KI-Antworten und zeigt dir, wie du diese durch gezieltes Prompt-Engineering und Quellenpflege vermeiden kannst.Diese Herausforderung spielt auch eine Rolle beim Aufsetzen von UnternehmensGPTs: https://youtu.be/0tGXZPxThA0?si=opmq_q8fM7_EVrwMWas tun, wenn ChatGPT zu Deinen Produkten halluziniert?Dann kannst Du Dich bei OpenAI auf die Warteliste für Feed Submissions setzen lassen. Über dieses geplante Feature können Händler ihre Produkt-Feeds bald direkt an OpenAI senden, wodurch ChatGPT genauere und aktuellere Angebote an seine Nutzer ausspielen kann. Hier geht es zur Registrierung:https://openai.com/chatgpt/search-product-discovery/Neue Messbarkeit und TrackingUnternehmen können heutzutage KI-Traffic auf verschiedene Arten tracken. Dazu gehören UTM-Tags und die Analyse der Darstellung in Antworten.KI-Werbung und Zukunft der MonetarisierungEin Blick in die nahe Zukunft zeigt, dass sich KI-Sichtbarkeit künftig kommerzialisieren wird, analog zu SEO, SEA und Social Ads.🎧 Bleib immer auf dem neuesten Stand mit der Microsoft Teams Community: 👉 Neue Folgen sofort auf dem Schirm👉 Direkt bei der Arbeit reinhören👉 Wertvolle Folgen mit Kollegen teilen👉 Mit Data & Analytics-Experten vernetzen➡️ Jetzt beitreten!https://teams.live.com/l/community/FEANNwVOOhLHQt2uAM Wir freuen uns auf dich! 💬Mehr zu Datendurst und Host Tim:https://www.linkedin.com/company/datendurst/https://www.linkedin.com/in/ebner-tim/Unterstütze den Podcast:paypal.me/datendurst
loading
Comments