DiscoverPodcast 2030
Podcast 2030

Podcast 2030

Author: Dénes Csala, Endre Sükösd - Podcast 2030

Subscribed: 20Played: 134
Share

Description

Milyen lesz az életünk 2030-ban? Gondolatébresztő tech podcast
31 Episodes
Reverse
30 - Magyar Holdipari Kft.

30 - Magyar Holdipari Kft.

2019-10-2900:40:08

A Holdraszállás 50 éves jubileuma előtt tisztelegve, ebben az epizódban a Holdkutatás jövőjéről beszélgetünk. A következő néhány évben több állami és magán-expedíció készül a Hold újrafelfedezésére. Vajon ezek is felderítő utazások lesznek, vagy talán propaganda-indíttatásúak, mint a hidegháború idején - amikor az égi kísérőnk kutatása kétségkívül aranykorát érte? Netán megérné már teljesen kereskedelmi indoklásból a Holdra szállni? Vagy a Hold csak egy "lángosozó-hely" lesz, úton a Mars felé? Ezekre a kérdésekre keressük a választ, megemlékezve az Apollo-programról és annak technikai megvalósításairól, valamint megpróbálunk több Hold-business-modellt is elképzelni.
29 - Sapiens #NoHomo

29 - Sapiens #NoHomo

2019-10-1400:33:40

Könyvajánló: ebben az epizódban Yuval Noah Harari világhírű történész és egyetemi professzor könyveiről beszélgettünk. Első könyvében az emberiség történetét mutatja be érdekesen, érthetően és egy újszerű nézőpontból megközelítve. Miért is lett annyira sikere az ember faj, hogy manapság gyakorlatilag uralja és igényeihez igazítja az egész a bolygót? A kulcs a nagy csoportokban való flexibilis együttműködés képessége, amely a nyelv, a képzelet és a közösen elhitt fikcióknak köszönhetően alakulhatott ki. A könyv rávilágít arra, hogy mennyire fontos szerepet játszanak az életünkben a társadalom által elfogadott narratívák. A médiá által terjesztett információ tudja formálni, megerősíteni ezeket a narratívákat, amelyek éppúgy lehenek pozitív, mint negatív hatással a saját életünkre, egyes népcsoportokra vagy akár az egész emberiségre.
Dr. Lőrincz Andrással, az ELTE Mesterséges Intelligencia Tanszék vezetőjével beszélgettünk az intelligencia mibenlétéről. Melyek az intellgencia főbb összetevői? Egyik fontos eleme a faktorizáció, azaz a feladatok komponensekre bontásásnak képessége. Például az emberi interakcióknál az arc és az arckifejezés szétválasztása. A faktorizáció csökkenti a keresési teret és megkönnyíti a tanulás folyamatát. Szó esik arról is, hogy nem tiszta lappal születünk, hanem evolúciósan előre bedrótozott neurális rendszerekkel, amelyek lehetővé teszik például az érzelmek felismerését és megértését, ezáltal szintén elősegítve a tanulást és a kooperációt. Mi történik akkor, amikor meghibásodik a neruon közötti kommunikáció? Mi a különbség a tudás megszerzése és átadása között? Hogyan építhető bele a kíváncsiság egy gépi algoritmusba?
Ahogy nőnek a kapcsolati hálóink a közösségi médián, úgy oszlik meg a figyelmünk és az egyéni felelősségvállalásunk is. Emiatt lesz kevésbé hatékony a segítségkérés, mivel mindenki mástól várná hogy cselekedjen (bystander effect). Miért szüntette be a legtöbb hírportál a komment részlegét? Azért, mert azt a konstruktív, közösségépítő viták helyett, a troll hózzászólások és a gyűlöletbeszéd dominálták. A legerősebb érzéseket és reakciókat ugyanis az a cikk vagy hozzászólás váltja ki belőlünk, amely provokál és haragra gerjeszt. Lehetséges egy olyan technológiai utópia, amely emberközpontúbb, nem aknázza ki az érzelmi sebezhetőségeinket és elősegíti, hogy jobban odafigyeljünk egymásra? És vajon hogyan fogjuk tölteni a hétköznapjainkat, amikor majd a rólunk begyűjtött adatok alapján személyre szabott interaktív sorozatok állíthatók elő (Bandersnatch)?
Az intenzív közösségi média fogyasztás fragmentálja a figyelmünket és árthat a mentális egészségünknek. Az algoritmusok által felkínált tartalmak véleménybuborékot alakítanak ki és úgy vannak megtervezve, hogy függőséget okozzanak. A technológia által felszínre hozott társadalmi problémák vajon teljesen új jelenségnek számítanak? A digitális korszak előtt nem léteztek-e ugyanezek a problémák, csak más kontextusban? Probléma az, ha a gyerek túl sok időt tölt el egy számítógépes játékkal vagy egy online platformon? Lehet az algoritmusoknak nevelő hatása? Mennyire veszélyesek az online terek és milyen gyakori az online zaklatás?
Would it be more effective to create a "climate police" or to convince mega-influencers with 100 million followers to preach acting on climate change? Is America's naked capitalism or China's pseudo-communism a better system for enacting climate policies? In this episode we discuss these controversial - but sometimes funny - questions, amongst technology leapfrogging by developing countries, emissions accounting techniques and climate activism options. In the end, we conclude that by looking back at history, a climate religion would probably be the most effective way to stir action.
In this episode we try to tackle one of the hottest topics when talking about our future: climate change - in English, to reach a wider audience. We start by clarifying the difference between weather and climate then we get geeky and debate how can climate change be considered a special version of the famous Prisoner's Dilemma game. We then wrap by discussing the bystander effect in climate change action and possible personal commitments.
23 - Áram 2.0

23 - Áram 2.0

2019-06-1100:48:10

Szabados Leventét kérdeztük a mesterséges intelligencia jelenlegi helyzetéről, a benne rejlő lehetőségekről és a saját tapasztalatairól AI tanácsadó és oktatóként. A beszélgetésből kiderül, hogy a gépi tanulási módszerek eredményességüknek köszönhetően az elektromossághoz hasonló forradalmat fognak véghez vinni, azaz széles körben el fognak terjedni és át fognak alakítani számos területet. A jelenlegi AI rendszereknek azonban limitációi is vannak: nem mindig tudjuk megmagyarázni miért és hogyan hoznak döntéseket; amikor tévednek, akkor máshogyan tévednek, mint egy ember; illetve bizonyos speciális bementekre rendkívül érzékenyek és ezáltal támadhatóak. A nemrégen publikált EU-s irányelvek szerint, olyan mértékig kell biztosnak és magyarázhatónak lennie egy MI rendszernek, amilyen mértékig befolyásolhatja vagy kárt okozhat az emberek életében. Az epizódból azt is megtudjuk, hogy az MI kutatás önreflexióra is lehetőséget ad. A gépi intelligencia fejlesztése rávilágít arra, hogy a saját intelligenciák hogyan működik és hogy feszültség van az általunk elvárt és a megfigyelhető viselkedés között, amely komoly etikai kérdéseket vet fel. Például, hogy nem az algoritmusok előítéletesek, hanem mi vagyunk előítéletesek tömegesen és ez válik nyilvánvalóvá a begyűjtött adatokon tanított algoritmusokon keresztül. Ezekről és sok más érdekes társadalmi kérdésről is szó esik ebben az epizódban!
We're happy to bring you an interview with researcher Edmond Awad, who worked on creating Moral Machine, an online platform which presents users with moral dilemmas. Users are required to make decisions about how an autonomous vehicle should behave, when an accident is unavoidable. Should the car kill the two passengers inside or the five pedestrians crossing the street? (Go on, try it out for yourself!) We discuss how this experiment was set up and analyze the results, after collecting more then 40 million moral decisions. Apart from being fascinating, these results are also very relevant, as self-driving cars could be driving down our roads as soon as next year, in 2020 (according to Tesla's ambitious plans to deploy a robotaxi fleet). The crowdsourced data collected by Moral Machine and similar projects will help further the discussion on how to develop software for artificial intelligence.
...hanem tanítsd meg halászni. Richard Sutton kanadai informatikus és egyetemi professzor szerint olyan mesterséges intelligenciát kell fejlesztenünk, amely hozzánk hasonlóan felfedezi a világot, nem pedig olyant, amelybe már bele vannak kódolva az általunk felfedezett összefüggések. "Bitter Lessons" (Keserű Tanulságok) címmel publikált írásáról beszélgetünk ebben az epizódban, és a DeepMind cégen keresztül szemléltetjük a technológia rohamos fejlődését. A fehérjék térbeli szerkezetének meghatározása jelenleg egy meglehetősen nehéz feladat, amely komoly kihívás elé állítja a kutatókat. Ezen a területen sikerült áttörő eredményt elérnie az AlphaFold-nak, a DeepMind gépi tanuló algoritmusának. Mi lesz a tudománnyal, amikor már nem emberi kutatócsoportok, hanem algoritmusok fogják publikálni a legújabb eredményeket? Szükség lesz-e még az emberi elme zsenialitására, ha a jövőben még több adat és számítási kapacitás fog a rendelkezésünkre állni?
loading
Comments 
loading
Download from Google Play
Download from App Store