
OpenAI 宣布将 ChatGPT 中的家长控制 加强对未成年人使用对话助手的监管。这一决定来得正是时候,公众辩论的焦点是 青少年安全与保护 他们在个人和情感方面求助于人工智能。
该公司预告这些功能将开始启用 下个月开始 并且没有固定的日期,目的是为家庭提供监测工具,在出现迹象时发出警告 “痛苦”或“急性压力” 以及对 设置儿童账户.
OpenAI 宣布了什么

新的安全方案将允许父母 将您的帐户链接到您孩子的帐户,查看系统如何响应您的请求,并调整影响您孩子体验的关键参数。
据该公司称,当模型检测到 严重的情绪困扰 我们将向父母或监护人发送通知,并采取更谨慎、更一致的措施和强化指导方针。
OpenAI 还宣布,在延长的会议期间,助手将展示 休息提醒 为了鼓励健康的使用习惯并避免可能出现问题的对话动态。
- 通过电子邮件邀请链接亲子账户。
- 适合年龄的模型行为规则,默认启用。
- 审查未成年人收到的回复并管理职能。
- 自动对“痛苦”或“急性压力”的迹象发出警报。
在账户控制方面,家长可以 禁用记忆和聊天历史记录, 限制某些福利 并定义一个使用框架,据 OpenAI 称,该框架旨在“培养父母与青少年之间的信任”。
家长控制如何运作

当系统识别出 极度不适,互动可以转向更谨慎和结构化的行为,并采用更具体的安全指南来减少不适当反应的可能性。
OpenAI 解释说,面对明确提及 自残或冒险,助手会优先考虑支持性信息,建议专业资源,并避免听从有害的要求,即使在长时间的对话中也能强化这些准则的一致性。
如果威胁可能影响第三方,公司会考虑 专门的审核渠道 他们重视额外措施,包括在适当情况下限制账户或转介,同时在自残情况下保护隐私。
该公司还在研究纳入补充选项的可能性,例如 指定紧急联系人 在父母的控制范围内,以便在发现令人担忧的迹象时提供密切的支持渠道。
背景:投诉和监管压力
此前,美国曾多次投诉,其中包括 一个家庭指责聊天机器人 导致其16岁儿子死亡。诉讼称,这名少年曾与该系统进行了长达数月的敏感对话,据称使用的是GPT-4系列模型。
OpenAI 承认其技术可以 在“敏感”环境中失败 并声称正在实施变革,尽管它避免将这些措施与正在进行的法庭案件直接联系起来。
与此同时,几位美国参议员要求提供有关以下举措的详细信息: 防止自残和自杀 在使用对话式人工智能时,引用了在极端情况下观察到的妄想反应。
Common Sense Media 等组织呼吁 限制18岁以下未成年人访问 对人工智能对话平台表示担忧,称其存在“不可接受的风险”,并警告称 情感依恋 一些年轻人通过这些系统得到了发展。
风险、限制和后续步骤

该公司表示,它将继续改进检测 精神痛苦的迹象 并将在未来几个月采取额外措施加强产品安全,同时不限制合法的学习或创造力使用。
除了家长控制之外,OpenAI 还声称获得了 福祉与人工智能专家委员会 以及一个由医学专家组成的网络,他们合作制定安全指南并审查复杂病例。
关于使用年龄,该公司提醒,访问 ChatGPT 需要 仅限 13 岁及以上 并且,根据每个国家的规定,可能需要成年人同意,直到成年,而家长控制将有助于实现这一点。
这些功能的落地将会 进步且没有确切日期尽管该公司计划下个月开始正式推出这项服务,但OpenAI计划在专家指导以及家庭和教育工作者的反馈下,继续“学习并强化其方法”。
随着家长控制功能的启动,ChatGPT 将对未成年人的使用进行更严格的控制: 账户关联、功能管理、风险预警 并在微妙的情况下采取更加谨慎的行为,所有这些都是为了满足日益增长的社会安全需求,同时又不忽视服务的实用性。
