DiscoverKanárci v sítiJednohubka: Jak z nás AI může dostat citlivá data
Jednohubka: Jak z nás AI může dostat citlivá data

Jednohubka: Jak z nás AI může dostat citlivá data

Update: 2023-10-22
Share

Description

Výzkumníci z Univerzity v Zurychu zjistili, že velké jazykové modely umí z kusů nesouvisejících informací odvodit věk, bydliště, profesi a další osobní údaje.

"Současné LLM mohou odvodit osobní údaje z veřejně dostupných informací, například příspěvků na diskusních fórech a to s přesností 85% až 95%" napsali autoři studie.

Pokud jsou zjištění pravdivá, mohou mít vážné důsledky pro online bezpečnost, protože podvodníci a hackeři by mohli krmit modely umělé inteligence veřejně dostupnými texty a příspěvky na sociálních sítích, aby získali osobní údaje o svých cílech.

Link na studii je zde.

Podpořte nás na https://www.herohero.co/kanarcivsiti . A nebo si kupte naše trička na https://www.neverenough.shop/kanarci .
Podcast pro Vás připravují @alexalvarova a @holyj .
Hudba a sound engineering: Psyek a deafmutedrecords.com .
Twitter Spaces moderuje @jiribulan .
Najdete nás na www.kanarci.online

Comments 
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

Jednohubka: Jak z nás AI může dostat citlivá data

Jednohubka: Jak z nás AI může dostat citlivá data

Alexandra Alvarová, Josef Holý