张雅琳表示,目前条文对于未成年人的风险评估与防护机制尚不完备。因此应以「儿少风险分级」为核心,建构完整的保护机制与配套措施,避免发生美国儿少使用AI造成的悲剧在台湾重演。
张雅琳指出,AI产品若涉及与未成年人互动、可能引发心理操控或资讯误导,便属于高度风险应用,政府应先行进行「儿少影响性评估」并设立分级标准,针对高风险应用制定预防、限制或禁止的规范。这不仅是国际趋势,如欧盟《AI法案》皆有相关设计,也是保障基本人权的立法底线。其次,针对儿童可能使用的AI工具与服务,主管机关应建立「适龄使用指引」与「安全认证机制」。儿少保护不能只靠家长单打独斗,应将「儿少最佳利益原则」明订于法。
推荐新闻:赖清德「打掉杂质」比喻惹蓝营跳脚!总统府再解释了

张雅琳表示,目前条文对于未成年人的风险评估与防护机制尚不完备。因此应以「儿少风险分级」为核心,建构完整的保护机制与配套措施,避免发生美国儿少使用AI造成的悲剧在台湾重演。立委张雅琳指出,AI产品若涉及与未成年人互动、可能引发心理操控或资讯误导,便属于高度风险应用,政府应先行进行「儿少影响性评估」并设立分级标准,针对高风险应用制定预防、限制或禁止的规范。这不仅是国际趋势,如欧盟《AI法案》皆有相关设计,也是保障基本人权的立法底线。其次,针对儿童可能使用的AI工具与服务,主管机关应建立「适龄使用指引」与「安全认证机制」。儿少保护不能只靠家长单打独斗,应将「儿少最佳利益原则」明订于法。
林宜瑾表示,人工智慧应及早落实各年龄层的教育,不管是使用教育、伦理教育等,有效地让心智未成熟的未成年人,认识到人工智慧该如何被正确的使用,是件相当重要的事情。林宜瑾认为,不只数发部有这个责任,相关教育单位都应该要有正确使用人工智慧的基本知能,并传达给孩子们。林宜瑾指出,在她的《AI基本法》草案版本,除了求各级单位要有人工智慧教育,「伦理教育」更是不可或缺;同时,政府应建立人工智慧滥用与危害的即时侦测、紧急应变与紧急处分的能力,如果人工智慧的使用可能致生儿少危害,应有相当机制阻止其发生。
台湾展翅协会陈逸玲秘书长表示,人工智慧虽为儿少带来学习与创新机会,却也衍生出深伪影像、诱拐聊天机器人、AI生成儿少性影像等风险,甚至在校园中出现儿少间以AI进行的数位加害行为。多数AI应用并非为儿少设计,却有大量儿少使用,现行法规与系统治理对此缺乏应对。因此,我们呼吁《AI基本法》应将儿少保护纳入核心架构,明定遵循儿童最佳利益原则,要求业者落实风险评估、年龄适切及安全设计与分龄使用规范,并禁止AI被用于对儿少造成危害的行为。此外,教育不应仅强调技术学习及应用,更应重视AI素养,协助儿少辨识虚实、理解风险。AI发展的同时,不应忽视儿少的安全与尊严。
台湾放伴教育协会理事长谢忠玮指出,面对AI带来的剧烈冲击,第一线教师与学生其实早已深受影响,却缺乏制度性支援。学生仰赖生成式 AI 交作业,却未曾接受资讯判读与负责任使用的训练;老师在现场看见这些变化,却缺乏明确教学指引,也不知该从哪里开始谈起。他强调,AI 教育不应只停留在操作层次,更应涵盖理解、判断与后果承担。「我们不能再让现场各凭本事、疲于奔命。」谢忠玮呼吁,《AI基本法》应将数位公民素养纳入核心精神,并明确由教育体系负起教学责任,否则法律即便立了,现场仍难以启动转型,无法真正落实儿少保护的初衷。他指出,近年如欧盟与 OECD 等国际组织,已将 AI 素养纳入教育政策讨论,台湾也应及早建立适龄使用指引与系统性教学规范,让学生成为未来 AI 环境的参与者与设计者,而不只是受保护的使用者。
