Twee jaar ChatGPT en GenAI: waar staan we nu?
Description
Eind 2022 sloeg ChatGPT in als een bom. Plots kwamen er veel meer mogelijkheden op het gebied van AI, voor IT-leveranciers en organisaties die op zoek zijn naar manieren om processen en workflows te optimaliseren. Heeft Generatieve AI geleverd wat velen ervan verwachtten twee jaar geleden? We bespreken het in deze splinternieuwe aflevering van Techzine Talks.
De IT-wereld is al een paar jaar in rep en roer. De reden: eind 2022 kwam er met ChatGPT 3.5 een eerste keer een Large Language Model (LLM) beschikbaar voor de massa.
Zoals dat dan vaker gaat bij een nieuwe ontwikkeling, volgde er een periode van onrealistische verwachtingen. Die werden ook zeker niet getemperd door de meeste IT-leveranciers. Na verloop van tijd kwam er gelukkig wat meer realisme en pragmatisme in het GenAI-verhaal. Nu, twee jaar later, is het een goed moment om de balans op te maken.
Foundation models, agents, copilots, RAG, pc's en strijd tussen hyperscalers
In deze aflevering van Techzine Talks benaderen we het fenomeen GenAI vanuit meerdere invalshoeken. Voor sommige leveranciers is het een manier om een wat inzakkende markt weer op te krikken. Voor anderen is het juist een mogelijkheid om een toch al uitstekend lopende business nog een extra versnelling te geven.
Wat de exacte reden ook mag zijn, vrijwel alle leveranciers doen iets met GenAI. Er is een strijd gaande tussen de verschillende foundation models (LLM's), maar ook tussen de grote hyperscalers. Daarnaast zijn er met Retrieval-Augmented Generation (RAG) en recenter Agentic AI ook de nodige extra componenten toegevoegd aan het GenAI-narratief.
Al met al lijkt GenAI steeds bruikbaarder te worden. Het wordt echter ook aanmerkelijk minder hemelbestormend dan we in 2023 te horen kregen. En dat is een goede zaak. Uiteindelijk moet het vooral praktisch haalbaar zijn en ook voldoen aan alle wensen en eisen die organisaties hebben.