OpenAI军事领域禁用规则删除,“潘多拉魔盒打开”?
北京时间1月13日 OpenAI突然更新其使用政策,为其技术应用于军事领域打开了大门,过去其明确禁止将技术投入到“军事和战争”为目的的应用中,而今这样的话语已经消失。
早在1月10日已有外媒关注到这一变化,技术领域中的政策更新是会经常随着产品发展和管理方针的更变而变化的,OpenAI亦是如此。
政策变更前
政策变更后
显然从官网公布的界面来看,整个事情都被重写了,过去直接否定“军事与战争”的禁令被改写换成了更加模糊的词汇——“不要伤害任何人”,后者这种说法显然是更加宽泛和模糊的,但OpenAI的政策制定者显然不这么认为,该公司在声明中表示,虽然“不要伤害他人”这一定义较为宽泛,但在许多情况下很容易理解。
但从读者感官而言,过去那种明确反对从事军事和武器应用的要求,显然已经消失。
综合来看,OpenAI正在转变其“不与军方做生意”的立场是毋庸置疑的,这种变更或会为军事格局带来不小的变化,尽管如今Open AI所提供的内容不能直接伤害或杀害任何人,也并不具备任何的杀戮能力,但向军队“开放拥抱”,依然会带来许多令人担心的隐忧。
至少如今的OpenAI已经存在为军队从事杀戮任务助力的可能,或至少在一定程度上可以帮助军队提升其杀戮能力。
比如像 ChatGPT这样的大语言模型可以帮助军事队伍进行代码编写或处理采购订单等。此外,直接支持美国作战行动的国家地理空间情报局也曾公开猜测,ChatGPT可以帮助人类分析师进行某种工作或分析某些内容。换而言之即使部分军事力量确是以非直接暴力目的使用OpenAI的,但究其根本,它帮助的对象仍是一个致命性的机构。
迄今为止,OpenAI还未公开对这次政策转变发布其明确态度,而从OpenAI的禁止用途中完全删除“军事和战争”内容观之,该公司至少对为军事客户提供服务持开放态度。
【来源: 凤凰网 科技 】