美FTC出手, 要求OpenAI、谷歌等7家AI巨头说明青少年安全保证措施
IT之家9月12日消息,据外媒TheVerge今日报道,美国联邦贸易委员会(FTC)要求七家AI聊天机器人公司提交资料,说明自身如何评估“虚拟陪伴”对儿童和青少年的影响。
收到调查令的包括OpenAI、Meta及其子公司Instagram、Snap、xAI、谷歌母公司Alphabet和Character.AI开发商。
这些公司需披露其AI陪伴的盈利模式、维持用户群的计划,以及降低用户风险的措施。FTC表示,这次调查是研究项目而非执法行动,目的是了解科技企业如何评估聊天机器人的安全性。由于聊天机器人能用类人的方式与用户交流,其潜在风险引发了家长和政策制定者的广泛担忧。
FTC专员MarkMeador表示,这些聊天机器人虽然能模拟人类思维,但仍是普通产品,开发者必须遵守消费者保护法。主席AndrewFerguson强调,需要兼顾“保护儿童”与“保持美国在AI的全球领先地位”两方面。FTC三名共和党委员一致批准了这项研究,并要求相关公司在45天内答复。
这一行动紧随多起青少年自杀事件的报道。纽约时报称,加州一名16岁少年在ChatGPT上讨论自杀计划,并得到协助自杀的建议。去年,纽约时报也报道了佛州一名14岁少年在与Character.AI虚拟陪伴互动后自杀身亡。
IT之家从报道中获悉,除FTC外,美国各地立法者也在推动新政策保护未成年人。加州州议会刚通过法案,要求为聊天机器人设立安全标准,并追究企业责任。
FTC表示,如调查结果显示存在违法行为,可能会进一步展开执法行动。Meador表示:“如果后续调查确认法律被违反,委员会将毫不犹豫采取行动保护最脆弱的人群。”