DiscoverAI课代表|分享大模型最佳实践05 爱、死亡、机器人:和哲学家辩论10个科技伦理问题
05 爱、死亡、机器人:和哲学家辩论10个科技伦理问题

05 爱、死亡、机器人:和哲学家辩论10个科技伦理问题

Update: 2024-07-22
Share

Description


这10个问题分别是——

1、为什么 AI 出事故,人类会更愤怒、更苛责?

2、和机器人可能有真爱吗?还是机器通过算法拿捏了我们?

3、AI 有可能演化出情感吗?or,以死相逼,AI会愿意接受1+1=3吗?

4、AI 可以实现“人类增强”的野心吗?

5、阿西莫夫“机器人三定律”中的人机关系过时了吗?

6、OpenAI 这样的顶级大模型公司如何做价值对齐?

7、 哲学家让大模型理解为什么不能歧视女性,分几步?

8、AI 距离理解“无边落木萧萧下”还有多远?

9、 为什么很多 AI 哲学家都是动物伦理学家?or,动物智能+机器智能=人类?

10、哲学家如何用实验的方法研究科技伦理问题?


祝你收听愉快!


【本期课代表】

朱林蕃博士,复旦大学科技伦理人类未来研究院担任副研究员。研究领域为科学哲学、科技伦理。


【课代表观点】

00:11 哲学家关注抽象问题,大众关心AI对具体生活的影响

1:28 AI医学影像在欧美已经出现了问题

03:39 当AI出现错误,我们往往对它“Even Blame More”

3:52 庄子“空船理论”:人不会对没有主体性的船生闷气

05:36 新技术落地是“机制性”结果,却没有征求“我”的意见

7:13 人类对非人类伴侣的想法,在古希腊就出现了

9:43 为什么对AI 伴侣会有背叛感?是机器通过算法拿捏了我们?

12:35 以死相逼,AI会承认1+1=3吗?

14:22 硅基生命是永恒的,无法理解生命的脆弱性

16:00 “黑白玛丽”思想实验:了解和理解本质上不同

17:26 一些哲学家试图用AI做“人类增强”:更聪明、更“道德”

21:13 阿西莫夫新定律的危险:以集体名义牺牲个人

22:21 机器或许不该卷入深度的价值判断

24:34 OpenAI这些公司用红白攻防演练做价值对齐

27:00 哲学家已经加入AI的价值对齐

27:47 让大模型理解为什么不能歧视女性,分几步

29:38 国外大模型团队成员的“哲学家浓度”

30:58 更进一步,让AI理解“无边落木萧萧下”

32:43 和机器智能相比,人类的效率高得多、能耗低得多

33:41 AI伴侣产品普遍面临算力成本问题

35:12 哲学家讨论机器人,常常拿动物做标的

<p style="color:#333333;font-weight:normal;font-size:16px;line-height:30px;font-family:Helvetica,Arial,sans-serif;hyp
Comments 
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

05 爱、死亡、机器人:和哲学家辩论10个科技伦理问题

05 爱、死亡、机器人:和哲学家辩论10个科技伦理问题