第五单元 第1课《机器人三定律》课件【清华版】人工智能通识( 中学)

文档属性

名称 第五单元 第1课《机器人三定律》课件【清华版】人工智能通识( 中学)
格式 pptx
文件大小 109.2MB
资源类型 试卷
版本资源 清华大学版
科目 信息科技(信息技术)
更新时间 2025-10-22 16:37:02

图片预览

文档简介

(共39张PPT)
第五单元 第1课
机器人三定律
清华版(中学)

1
学习目标
3
新知讲解
5
拓展延伸
7
板书设计
2
新知导入
4
课堂练习
6
课堂总结
课后作业
8
01
教学目标
(1)了解机器人三定律的内容及其对机器人行为的伦理指导意义。
(2)分析机器人三定律在现代人工智能背景下的局限性及其面临的
挑战。
(3)探讨从机器人三定律延伸到现代人工智能伦理的新规范。
02
新知导入
1. 机器人技术的现实化与智能升级
机器人已从科幻走向现实,如家庭清洁、工业制造、医疗手术,且随着AI大模型成为其“大脑”,智能水平逼近甚至超越人类。
02
新知导入
2. 阿西莫夫机器人三定律的伦理奠基
科幻作家阿西莫夫提出的 机器人三定律,为机器人伦理设计提供早期框架,影响了学术与产业界。
02
新知导入
3. 安全保证的挑战与局限性
三定律虽具启发性,但存在 逻辑漏洞和 现实适用性局限 ,需结合技术治理与法律规范协同保障安全。
03
新知讲解
1
艾萨克·阿西莫夫
1. 阿西莫夫的科幻贡献与思想核心
阿西莫夫作为科幻巨擘,其作品聚焦 人类与技术的关系 ,尤其通过机器人题材探讨未来社会中的人机共存伦理,突破传统“机器人威胁论”叙述。
03
新知讲解
1
艾萨克·阿西莫夫
在阿西莫夫之前,许多科幻作品中的机器人形象往往强调对人类的威胁性。比如,玛丽·雪莱的《科学怪人》中,人造生命最后开始反抗它的创造者。
《科学怪人》英文原版封面
03
新知讲解
1
艾萨克·阿西莫夫
阿西莫夫于1942年首次在短篇小说《转圈圈》中提出了机器人三定律,这些定律后来被收录在他的小说集《我,机器人》中。这三条定律旨在规范机器人行为,保护人类的安全。
小说集《我,机 器人》封面
03
新知讲解
1
艾萨克·阿西莫夫
3. 机器人三大定律
阿西莫夫三定律的意义在于首次系统化构建机器人伦理框架,是关于机器人行为的一套准则,用于确保机器人在与人类交互时不会造成伤害。总结起来,这三条定律分别为:保护、服从、生存。
03
新知讲解
2
机器人三定律的内容
1. 第一定律:保护人类
机器人不得主动或被动伤害人类,要求机器人在任何情况下都将人类安全放在首位,确立 人类生命安全的绝对优先性 ,为机器人行为设定伦理底线。
03
新知讲解
2
机器人三定律的内容
2. 第二定律:服从命令
机器人必须服从人类的命令。规定机器人需要听从人类的指令,但如果指令会导致违反第一定律,机器人可以拒绝执行。平衡人类对机器人的控制权和人类自身的安全。
03
新知讲解
2
机器人三定律的内容
3. 第三定律:自我保护
强调机器人可以采取必要的措施保护自己,但不能以危害人类或违背人类指令为代价。在不违反前两定律的前提下 可保护自身安全 ,确保其可持续服务人类。
03
新知讲解
2
机器人三定律的内容
4. 三定律的系统性价值与影响
三定律首次构建了 层级化的机器人伦理体系,为现实中的AI伦理设计提供理论基石,但其理想化假设面临现实复杂性的挑战。
03
新知讲解
3
机器人三定律的局限性
1. 语言模糊性导致的执行困境
这三定律都是用自然语言描述的,而人类语言具有天然模糊性,使机器在实际场景中难以准确判断与执行。例如,被打扰了睡觉算不算?需求没被满足,心理受伤了算不算?
03
新知讲解
3
机器人三定律的局限性
2. 定律内部的逻辑矛盾与冲突
道德困境 :如拯救一人需伤害另一人时,机器人陷入 两难抉择 ;
短期与长期利益的冲突 :如接种疫苗的短暂疼痛 vs 长期健康,机器人可能因规避“伤害”而阻碍必要医疗。
03
新知讲解
3
机器人三定律的局限性
3. 现实复杂性的超出与局限
定律无法覆盖 责任归属 (如自主学习机器人的过错追责)、 惩罚机制 (对无痛感机器的制裁)、 机器间冲突 等复杂伦理与法律问题。
自动驾驶汽车撞人后的归责问题不在 三定律框架之内
03
新知讲解
3
机器人三定律的局限性
4. 对现代AI伦理设计的启示
三定律的缺陷表明,伦理框架需 结合技术治理 、 法律规范 与 动态调整机制 ,以应对不确定性与复杂场景。
03
新知讲解
4
从机器人三定律到人工智能伦理
1. 从“工具”到“智能体”的认知转变
随着AI智能水平提升,机器人不再被视为 被动工具 ,而是 具有自主性的智能体 (类比动物),需重新审视其伦理地位与权利。
03
新知讲解
4
从机器人三定律到人工智能伦理
2. 对传统服从关系的挑战
机器人三定律的“ 人类优先 ”原则受到质疑,智能机器可能要求 协作共生 而非单向服从,颠覆了传统人机伦理框架。
03
新知讲解
4
从机器人三定律到人工智能伦理
3. 新伦理范式的探索需求
需构建 人机共存的道德准则 ,以公平协作替代绝对服从,应对高智能机器带来的社会与伦理挑战。
03
新知讲解
4
总结
1. 机器人三定律的核心贡献
首次为 人机关系 建立系统性伦理框架,确立“人类安全优先”的基本原则,为AI伦理研究奠定理论基础。
03
新知讲解
4
总结
2. 定律的内在缺陷与现实挑战
面临 语义模糊性、 逻辑矛盾和 现实复杂性的局限,难以直接应用于现代智能场景。
03
新知讲解
4
总结
3. 未来智能社会的伦理重构需求
需超越三定律的 单向服从范式 ,探索 协作共生 的新伦理准则,以应对高智能AI的社会集成挑战。
03
新知讲解





(1)可以 ,根据第一定律(保护人类),机器人A应阻止成年人伤害小男孩,即使需对成年人造成必要伤害(如 disarm),但需以最小伤害为原则。
基于机器人三定律,讨论在如下场景应如何处理。
1.如果一个机器人A处于一个凶案现场,一个成年人拿枪试图伤害一个小男孩,这个机器人为了保护这个小男孩,可以选择伤害这个成年人吗?
03
新知讲解





基于机器人三定律,讨论在如下场景应如何处理。
2.如果一个机器人A看到另一个机器人B在试图伤害一个小孩,这个
机器人为了保护这个小孩,可以摧毁机器人B吗?
(2)可以 ,基于第一定律(保护人类优先),机器人A应阻止B伤害小孩,摧毁B是最后手段,但需确保无更优解(如仅禁用而非销毁)。
03
新知讲解
1.在自动驾驶场景中面临类似“电车难题”的伦理困境时,应如何设计AI的决策原则?
(1)最小化总体伤害 :优先选择导致 总伤害最小化 的行动(如牺牲1人救5人),但需明确伤害量化标准(如生命权平等)。
(2)被动责任原则 :倾向于 不主动改变状态 (如不切换轨道),因主动干预可能承担道德责任,除非被动行动后果明显更严重。
(3)透明与可追溯性 :决策逻辑需 公开可审计 (如记录决策依据),允许事后审查与归责,而非完全依赖黑箱算法。




04
课堂练习
一、判断题。
1. 机器人三定律可以完美解决所有现实中的伦理困境。 ( )
2. 阿西莫夫提出机器人三定律是为了扭转早期科幻中机器人的负面形象。 ( )
3. 机器人三定律中的第三定律允许机器人为了保护人类而伤害自己。 ( )
4. 在“电车难题”中,最小化伤害原则意味着应该拉下操纵杆牺牲一个人救五个人。 ( )
5.随着AI智能水平提升,我们需要重新思考机器人的伦理地位和权利。 ( )

×
×


04
课堂练习
二、选择题
1. 机器人三定律中,第二定律的主要内容是:( )
A. 机器人必须保护自身安全 B. 机器人必须服从人类命令,除非与第一定律冲突
C. 机器人不得伤害人类 D. 机器人可以主动攻击人类
2. 阿西莫夫提出机器人三定律的主要目的是:( )
A. 让机器人能够反抗人类 B. 通过伦理准则让机器人成为人类助手而非威胁
C. 提高机器人的计算能力 D. 让机器人具有情感
3.机器人三定律面临的主要挑战不包括:( )
A. 语言模糊性 B. 逻辑矛盾 C. 计算速度太慢 D. 现实复杂性
C
B
B
04
课堂练习
三、填空题
1. 阿西莫夫提出的机器人三定律中,第一定律的核心是 。
2. 机器人三定律的局限性包括语言模糊性、逻辑矛盾和 。
3.在面临“电车难题”类似的伦理困境时,AI决策应遵循 原则,选择总体伤害最小的行动方案。
4. 随着AI智能水平提升,机器人从“工具”转变为具有自主性的 。
5. 未来智能社会的伦理重构需超越单向服从,探索 的新伦理准则。
人类安全至上
现实复杂性
最小化伤害
智能体
协作共生
05
拓展延伸
1. AI价值对齐问题 :研究如何确保AI系统的目标与人类价值观保持一致,防止其追求错误或有害的目标。
05
拓展延伸
2. 机器伦理学的兴起 :探讨机器如何具备道德决策能力,以及如何设计合乎伦理的AI系统的新兴学科。
05
拓展延伸
3. 机器人权利运动 :争论是否应赋予高度智能的机器某种形式的“权利”,反思其道德地位和法律保护。
06
课堂总结
1
艾萨克·阿西莫夫
2
机器人三定律的内容
3
机器人三定律的局限性
4
从机器人三定律到人工智能伦理
5
进行相关知识拓展
1
2
3
4
5
机器人三定律
07
板书设计
机器人三定律
1、艾萨克·阿西莫夫
2、机器人三定律的内容
3、机器人三定律的局限性
4、从机器人三定律到人工智能伦理
5、进行相关知识拓展
课后作业。
1、 在自动驾驶面临类似“电车难题”的伦理困境时,应依据哪些核心原则设计AI的决策系统?
08
课后作业
1. 在自动驾驶面临类似“电车难题”的伦理困境时,应依据哪些核心原则设计AI的决策系统?
(1)最小化伤害原则 :选择导致 总体伤害最小 的行动方案(如牺牲1人救5人),但需预设生命权平等,避免价值排序。
(2)程序正义与透明度 :决策逻辑必须 公开可审计 (如记录决策依据),允许监管审查与责任追溯,而非黑箱操作。
(3)被动优先原则 :优先采取 不主动干预 的选项(如保持原轨道),因主动改变状态可能承担更大道德责任,除非被动选择后果明显更恶劣。
08
课程实践
一辆自动驾驶汽车在路上飞奔,而你在这辆车上。忽然前方的大卡车上掉下来一堆货物。
如果直接撞上去的话,车会撞烂,你可能会死亡。
如果向右转,右边的车会撞坏,自己和右车的乘客都会受伤。
如果向左转,自己没事,但左边的摩托车手可能会死亡。
这种情况下,自动驾驶汽车应该采取何种动作呢?
分组调查研究,设计调查问卷给不同的群体并分析反馈结果。
https://www.21cnjy.com/recruitment/home/fine
同课章节目录