第11课“人工智能的伦理与安全挑战”-教学设计(表格式)-2025-2026学年九年级全册《信息科技》(西师大版)

文档属性

名称 第11课“人工智能的伦理与安全挑战”-教学设计(表格式)-2025-2026学年九年级全册《信息科技》(西师大版)
格式 docx
文件大小 24.1KB
资源类型 教案
版本资源 通用版
科目 信息科技(信息技术)
更新时间 2025-10-08 15:07:52

图片预览

文档简介

九年级全册第 11 课“人工智能的伦理与安全挑战”教学设计
年级 九年级 单元/主题 第四单元 畅想智慧社会
课名 第 11课 人工智能的伦理与安全挑战
一、教学建议
教学时长建议 1 课时
教学目标 本课的主要教学目标: 1.了解人工智能带来的伦理问题。 2.了解人工智能技术给人类带来的安全挑战。 3.明确人工智能与社会的辩证关系,增强自我判断意识和责任感。
教学设计建议 教学设计建议如下: 1.通过学习者在日常生活中可能遇到的人工智能伦理问题、防护措施等案例,来帮助学习者理解人工智能安全的重要性,并培养学习者的人工智能安全意识; 2.引导学习者积极思考人工智能可能带来的安全与伦理问题及挑战,让学习者逐步具备人工智能安全防护能力。
教学方法建议 在学习引入方面,教师可以结合时事热点来引入,如“AI诈骗 ”“AI换脸 ”“阿里 EMO 模型 ”。 在新知学习方面,对于“人工智能的安全挑战 ”,教师应从教材上的案例出发,分析案例背后的深层原因,并阐明带来的严重问题,最后总结人工智能技术给我们带来便利的同时,也确实存在安全挑战。对于“人工智能的伦理挑战 ”,教师应分别从技术伦理挑战、社会伦理挑战等,分别进行理论分析,在理论分析过程中,要以典型的案例加深理解。对于“应对防范策略 ”,教师应以深入浅出的方式讲解理论知识,同时可以通过实际应用举例,告诉学习者如何对人工智能的安全挑战进行有效防范。 在“项目探究 ”方面,教师组织学生开展“人工智能的伦理与挑战 ”课堂辩论赛,正方与反方进行辩论,培养学生的计算思维与信息社会责 任等核心素养。
二、补充知识
对应教材内容(对教材中何处 内 容 的 补充) 新知学习 一、人工智能的安全挑战 二、人工智能的伦理挑战 三、应对防范策略
补充内容 人工智能的高速发展及应用,使我们正在步入人工智能驱动的时代。大数据是人工智能技术研发和落地的基础,随着数据在各场景中被收集和利用,数据安全和隐私保护面临着巨大的风险与挑战。
1.谁在面临人工智能带来的数据安全挑战? (1)学生 人工智能技术已成熟地应用到了学生的日常学习中,在线课程门户Study.com 对 1000 名美国大学生进行了调查,调查结果显示美国大学约89%的学生使用智能对话机器人完成作业,53%的学生使用其撰写论文, 48%的学生使用其完成考试。为了避免学生过于依赖此类工具,防止作弊,多个国家的学校已经开始禁止学生使用。 (2)企业员工 随着人工智能技术在企业的应用与普及,企业的涉密人员正在成为数据安全风险的主要群体,与智能对话机器人分享的机密信息可能被用于未来人工智能模型的迭代训练,这将可能会导致该模型输出的内容可能包含机密信息,例如用户隐私数据、企业机密数据等,从而造成敏感数据泄漏的风险。 2022 年 11 月,某国际大型电子商务公司律师就警告员工不要与智能对话机器人分享机密数据,因为这将会被其用来作为迭代训练的数据。 2023 年 1 月,新一代人工智能对话机器人母公司一名员工在内部论坛上询问是否可以用智能对话机器人工作时,其首席技术官办公室的一位高级程序员回复,只要不与其分享机密信息,是可以被允许的。 2.人工智能带来了哪些数据安全风险? (1)隐私合规风险 目前智能对话机器人的使用条款尚不明确,其中虽然会提示用户将收集使用过程中的信息,但并没有说明收集信息的具体用途;虽然承诺删除所有个人身份信息,但未说明删除方式。这将会为人工智能企业带来合规风险,同时为用户带来个人信息泄露或滥用的风险。 例如根据 GDPR 第 17 条,个人有权要求删除其个人数据,即“被遗忘权”或“删除权”。然而事实上,在用户要求时从训练模型中完全删除数据是很难做到的。并且考虑成本问题,人工智能企业也不太可能每次在用户要求删除某些敏感数据后重新训练整个模型。因此人工智能获取到的数据,被训练成了模型就如同黑箱一般存在, 自动化的过程难以完全删除痕迹。 (2)个人信息泄漏 用户使用场景:用户与智能对话机器人交互过程中,可能会提供个人敏感信息,包括姓名、 电话、地址等,还可能包括用户的心理状态、偏好等其他个人信息。收集到的个人信息可能以实名或匿名的形式,流向模型的开发者、数据标注团队。这些数据有可能没有进行人工过滤及标注,并在输出时可能包含这些个人信息,从而使其他用户可能获得这些数据。 模型训练场景:用户和智能对话机器人的所有交互数据都会被记录、
分析。通过我们向机器人的不断提问和机器人的不断输出,它们会得到充分的训练,会更加全面地了解用户,这将会引发不法分子对用户信息买卖的风险,从而实现精准营销的商业目的。 (3)编写恶意软件 根据美国 OpenAI 的评估,智能对话机器人通常只有 37%的概率会给出正确代码。除了存在无法运行的 Bug 外,基于 AI 编写的代码可能引入漏洞。相关人员通过研究智能对话机器人在 89 个场景中生成的代码,发现有 40%的代码存在漏洞。如下图中生成的 Python 代码,由于将参数直接拼接进 SQL 语句中,会导致存在 SQL 注入的风险。 目前已经有犯罪集团提供恶意软件服务,攻击者借助人工智能带有漏洞的代码发起网络攻击可能会变得更容易。人工智能的代码漏洞将赋予甚至经验不足的攻击者编写更准确的恶意软件代码的能力,将加速恶意软件的开发。 (4)数据源投毒 模型训练的数据通常来源于公开获取的内容,如果数据源被攻击者控制,并且在数据标注时未能识别,攻击者可能通过在数据源中添加恶意数据,从而干扰模型结果。对于数据源较为单一的场景,投毒的可能性更高。 (5)网络钓鱼 攻击者可借助 ChatGPT(美国 OpenAI 研发的大型预训练语言模型)等生成式 AI 技术轻松绕过安全控制,并生成以假乱真的网络钓鱼电子邮件,而无需任何编码知识和犯罪经验。攻击者能有效地将普通钓鱼的数量与鱼叉式网络钓鱼的高收益结合起来。普通网络钓鱼的规模很大,以电子邮件、短信和社交媒体帖子的形式发送数百万个诱饵。但这类通用的形式,容易被发现,因此回报较低。鱼叉式网络钓鱼利用社会工程,创建具有更高回报的具有针对性的定制化诱饵,但因需要大量的人工投入,因而数量较少。借助 ChatGPT 生成网络诱饵,攻击者就可以实现事半功倍的效果。 3. 该如何利用人工智能这把双刃剑? 人工智能实现了科技的革新,同时也引发了上述数据安全风险。企业应该如何在利用人工智能技术的同时降低数据安全风险是值得思考的问题,接下来的内容将从管理和技术两个层面提出我们的观点与建议。 (1)管理层面 法律法规的落实:在《网络安全法》《数据安全法》《个人信息保护法》的法律法规要求下,应关注并落实人工智能算法领域的法律法规及行业标准的延伸,尤其是针对境内提供类似对话服务的人工智能企业应强化数据安全和个人信息滥用情况的监管,避免利用真实个人信息数据进行模型训练而造成的个人信息泄露、滥用等情形。 监管要求的探索:生成式人工智能技术及产品的监管必须将算法监
管和数据监管结合起来。在算法监管机制的未来探索中,应充分考虑算法决策的主体类型和作用类别,并探索场景化和精细化的算法治理机制。 数据分类分级:通过定义不同类型的数据以确定各类数据的保护级别和保护措施。对所有信息资产,包括硬件资产、软件资产和数据资产等进行全面梳理,为进一步对敏感数据分析、数据保护措施的制定、数据泄露风险监测做好基础准备。 (2)技术层面 反恶意软件:利用技术工具,例如使用自动化监控、沙盒、行为分析等技术或攻击,抵御各种高级恶意软件。 代码漏洞检测:黑客经常利用编写不当的代码来寻找漏洞,可能会导致系统崩溃或泄漏数据,NLP/NLC 算法可能会发现这些可利用的缺陷并生成警报。 钓鱼邮件检测:通过研究智能机器人编写钓鱼邮件的语言模型与规律,分析传入的外部电子邮件和消息的文本,从而检测出新的网络钓鱼尝试。 网络威胁情报:可将人工智能语言模型用作分析,从各种社交媒体等数据源来分析并识别潜在的网络威胁,并了解攻击者使用的战术、技术及程序。 自动事件响应:通过对网络威胁情报的识别,可以使用它进行自动响应,例如阻止 IP 地址或关闭服务等。
补充知识来源(提供网站链接或按参考文献格式提供) 网站链接: https://baijiahao./s id=1761230257987424366&wfr=spider&for=p c
三、对应需要的软件、硬件说明
对应教材内容(对教材中何处内容使用软件、硬件) 无
软件名称(最好提供开源软件) 无
基本功能说明 无
硬件名称(选择性价比高、中小学能用得起的) 无
基本功能说明 无
四、项目探究解答参考
探究项 目 :新型诈骗——AI换脸 2023 年 4 月,安徽安庆经开区发生一起“ 冒充熟人 ”诈骗案,诈骗分子使用了一段 9 秒的智能AI 换脸视频佯装“熟人 ”,让受害人放松警惕从而实施诈骗。当天,何先生的微信“好友 ”突然向其发起视频通话,电话接通后,何先生看到了“好友 ”正在一间会议室内,就在他准备进一步询问时,“好友 ”直接挂断了电话,并表示在会议中有重要事情交代,需要何先生添加QQ 沟通。随后,“好友 ”在 QQ 上告诉何先生, 目前有一个项目招标需要周转资金,希望何先生先行帮忙垫付。因为“好友 ”打了视频电话且是熟人,何先生没有犹豫,立刻让家人将 245 万元转到对方指定的账号上,事后拨打好友电话才得知被骗。 AI 换脸是指通过人工智能技术,把别人的脸换成自己的脸。2023年 5 月 24 日,中国互联网协会发文提示“AI 换脸 ”新骗局。利用“AI换脸 ”虚假视频,进行诈骗、诽谤的违法行为屡见不鲜。
五、操作练习答案
1.请你结合AI换脸的案例,与同伴讨论、分析如何理性防范手机 App泄露重要个人隐信息。 参考: 使用手机上网时,要做到: (1)手机安装安全防护软件,设置手机截屏密码。 (2) 下载安装使用经过手机安全防护软件检测通过的 App。 (3)使用 App 时 ,尽量不注册账号, 不实名认证, 不上传个人身份证信息,不上传个人照片,不允许访问手机相册 、通讯录等隐私信息。
2.在社交平台(如短视频、微博、朋友圈等) 发布某些照片可能存在哪些风 险? 人工智能程序可能会用它 们 来 做 什么? 参考: (1)个人隐私照片泄露,被不法分子用来勒索、诈骗钱财。 (2)个人身份信息泄露,被不法分子顶替身份从事违法犯罪活动。
3.人工智能的发展还会对人类产生哪些安全 与 伦 理 问题? 人工智能安全与伦理隐患实例 面临的安全与伦理问 题 防范措施
小黄车女子老金:小黄车服务使用人工智能,山东烟台一位女子乘坐小黄车时,被司机老金说服参与 1 人工智能应用(小黄车)对司机管束不够,容易让乘客上当受骗 (1)谨言慎行,不要相信陌生人的话;(2)注意保护个人隐私、财产;(3)人工智能应用(小黄车)需要
万块钱的贷款,最终被宰割光了钱财。 加强对司机的管束。
滴滴顺风车司机上线后受害:滴滴顺风车司机在使用人工智能技术上线后,被乘客持刀抢劫,并受伤。 人工智能应用对乘客 管束不够,容易让司 机受到人身财产威 胁。 人工智能应用(滴滴) 需要加强对乘客的管 束。
同课章节目录