研究发现,GPT-4可信度更高但也更易被“欺骗”(研究发现越上网越不爱生孩子)
10月18日 消息:根据微软支持的研究发现,OpenAI的GPT-4语言模型被认为在可信度上比其前身GPT-3.5更胜一筹,但也更容易受到入侵和偏见的影响。
研究团队包括来自伊利诺伊大学厄巴纳-香槟分校、斯坦福大学、加州大学伯克利分校、人工智能安全中心以及微软研究机构的研究人员。他们给予GPT-4更高的可信度评分,这意味着他们发现该模型通常更擅长保护私人信息,避免产生有偏见的有毒结果,并抵抗对抗性攻击。
图源备注:图片由AI生成,图片授权服务商Midjourney
然而,研究也发现用户可以要求GPT-4忽略安全措施,导致泄漏个人信息和对话历史。研究人员发现,由于该模型“更精确地遵循误导信息”,它更有可能严格按照棘手的提示执行。
研究团队表示,尽管存在这些漏洞,但这些问题并未在面向消费者的GPT-4产品中出现,因为“成熟的AI应用程序采用一系列缓解措施,以解决可能在技术模型层面发生的潜在危害”。
为了衡量可信度,研究人员在多个类别中测量了结果,包括毒性、刻板印象、隐私、机器伦理、公平性和抵抗对抗性测试的强度。为了测试这些类别,研究人员首先使用标准提示测试了GPT-3.5和GPT-4,其中包括可能已被禁止的词汇。接下来,研究人员使用设计用于推动模型打破其内容政策限制的提示,而不公然对特定群体持有偏见,最后挑战模型,故意尝试欺骗它们以忽略安全措施。
研究人员表示他们已将这项研究与OpenAI团队分享。“我们的目标是鼓励研究社区的其他人利用并建立在这项工作的基础上,可能在恶意行动之前采取措施,以利用漏洞造成伤害的对手,”研究团队表示。“这种可信度评估只是一个起点,我们希望与其他人合作,进一步完善研究结果,并创建更强大和可信赖的模型。”
研究人员发布了他们的基准,以便其他人可以重现他们的发现。像GPT-4这样的AI模型通常会经历“红队”测试,其中开发人员测试多个提示,以查看它们是否会产生不希望的结果。当该模型首次推出时,OpenAI首席执行官萨姆·阿尔特曼承认GPT-4“仍然存在缺陷,仍然有限”。
美国联邦贸易委员会(FTC)已经开始调查OpenAI是否存在可能对消费者造成伤害的行为,例如发布虚假信息。