Discover聽天下:天下雜誌Podcast【導航AI新未來Ep.13】小心「AI幻覺」!大型語言模型存在何種歧視?台灣如何發展本土語言模型?
【導航AI新未來Ep.13】小心「AI幻覺」!大型語言模型存在何種歧視?台灣如何發展本土語言模型?

【導航AI新未來Ep.13】小心「AI幻覺」!大型語言模型存在何種歧視?台灣如何發展本土語言模型?

Update: 2024-08-15
Share

Description


牛津字典(Oxford Dictionary)2023年的年度關鍵字為Hallucination(AI幻覺),所指的正是,2022年底騰空出世的ChatGPT等大型語言模型的熱潮及相關的副作用,該字典編輯即公開發表警示:「當AI製造幻覺,它會產生錯誤的訊息。」

根據新創Vectara地偵測研究顯示,ChatGPT出現幻覺的比例達3%,Meta則有5%以上,必須嚴肅地看待此事。 另一個值得思考的是,大型語言模型由於使用語庫大量仰賴網路資訊,充斥性別、種族的歧視及恐同的刻板印象,更引發各界的質疑

而我們國科會也正大力的投入相關資源,積極地建立一套繁中版的TAIDE(可信賴的AI對話引擎)的大型語言模型的當下,面對AI幻覺及歧視性刻板印象的內容等風險,該如何因應這項挑戰呢?請收聽本集《導航AI新未來》。



主持人:天下雜誌未來城市頻道總監 陳芳毓

來賓:理慈國際科技法律事務所共同創辦人 蔡玉玲

製作團隊:天下實驗室、天下整合傳播部



以上廣告由 數位發展部數位產業署 提供

--

Hosting provided by SoundOn

Comments 
In Channel
loading
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

【導航AI新未來Ep.13】小心「AI幻覺」!大型語言模型存在何種歧視?台灣如何發展本土語言模型?

【導航AI新未來Ep.13】小心「AI幻覺」!大型語言模型存在何種歧視?台灣如何發展本土語言模型?

天下雜誌