248. Därför låg AWS nere i 14 timmar
Description
Vi går igenom det 14-timmar långa AWS-avbrottet som skedde den 20 oktober. I AWS egna postmortem kan vi läsa om hur en seg DNS-enactor och en för snabb DNS-planner lyckades rensa bort alla DNS-poster i DynamoDB, till varför EC2 plötsligt trodde att alla servrar var upptagna. Vi går också in på detaljer som thundering herd och congestive collapse, samt varför AWS-tjänsten Route 53 både låter och ser ut som en motorvägsskylt snarare än en DNS-tjänst.
Dessutom pratar vi om huruvida det verkligen har funnits en sjöhäst-emoji eller om det är ett fall av Mandela-effekten. "Fråga ChatGPT" kanske du tänker…vi säger "gör det på egen risk!" 🦄🐉🐡
🤓 Svårighetsnivå: 4/5
🔗 Länkar:
CodeScene webbinarium - Vibe coding or not: tools and techniques for crafting healthy code
Kodkvalitet idag och imorgon - med Adam Tornhill 🎧
The Pulse: AWS takes down a good part of the internet
💬 Ställ en anonym fråga eller insändare som vi kan ta upp i podden!
💌 Håll kontakten med oss:
https://www.developerspodcast.com
Om du gillar podden får du gärna stötta oss genom att köpa vår merch, bli en Patreon, subscriba till podden eller skriva en recension!
★ Support this podcast on Patreon ★



