前OpenAI研究员阿德勒批评老东家: 忽视用户心理健康

IT之家10月30日消息,前OpenAI安全研究员史蒂文・阿德勒当地时间10月28日在《纽约时报》撰文批评前公司,称其在应对“AI时代的心理健康危机”上力度不足,并受“竞争压力”影响而放松了对AI安全的重视。

此前,奥尔特曼宣称公司已凭借“新工具”缓解了严重的心理健康问题,并“很快允许”平台出现成人内容。对此,阿德勒提出批评:“基于我在OpenAI工作的四年经历以及去年离职后进行的独立研究,我对这些心理健康问题是否真正解决存在重大疑问。公众不应仅仅依赖公司口头承诺来相信安全问题已获解决,换句话说:(公司需要)拿出证据来证明这一点。”

阿德勒警告称,放开成人内容可能带来严重后果。“问题不在于内容本身,而在于用户对AI聊天机器人的强烈情感依赖显示出明显的预警信号。”

阿德勒回忆自己在2021年领导OpenAI的产品安全团队时写道:“对那些看似正在与心理健康问题挣扎的用户而言,情感或性互动的不稳定性尤其危险。”

阿德勒认为,OpenAI关于心理健康问题普遍性的最新通报是个良好开端,但批评OpenAI在公布数据时没有将这些比率与过去数月的数据作比较。与其“快速推进并打破规则”,OpenAI和同行更应“放慢脚步”,给全社会时间去开发新的安全方法,这些方法应当即便面对别有用心的组织也无法轻易规避。因此,若要让人们信任OpenAI及其竞争对手去打造他们所追求的颠覆性技术,相关企业就必须证明自己今天在风险管理方面是可信的。

据IT之家此前报道,OpenAI在本周发布的公告中估计,相当比例的活跃ChatGPT用户显示出“可能与精神病或躁狂有关的心理健康紧急情况的迹象”。不仅如此,OpenAI还发现更多用户的对话中包含“明确表明存在潜在自杀计划或意向的迹象”。