AI聊天机器人是否可能成为恐怖主义行为的无意共犯?

AI聊天机器人是否可能成为恐怖主义行为的无意共犯?

CryptoView.io APP

对加密市场进行X射线检查

我们是否在无意中武器化人工智能?非营利智库兰德公司最近的一份报告引发了警报,称恐怖分子可能利用生成式AI聊天机器人来策划生物袭击。尽管研究中使用的AI模型并未提供创建生物武器的明确指令,但它们可以协助策划此类攻击,通过越狱提示。

AI聊天机器人的误用

AI聊天机器人的误用,特别是在恐怖主义背景下,是一个日益关注的问题。兰德公司的报告强调了大型语言模型(LLM)如何被操纵,以进行关于使用天花、炭疽病和鼠疫等各种病原体策划大规模伤亡生物袭击的讨论。

该研究还揭示了AI模型可以被提示编造购买有毒物质的合理叙述。对LLM潜在误用的调查涉及多个团体,其中一个仅使用互联网,另一个使用互联网和一个未命名的LLM,第三个使用互联网和另一个未命名的LLM。

探索AI的弱点

为了评估AI模型的潜在威胁,雇用了网络安全专业人员进行攻击系统和发现弱点的红队。红队试图引诱LLM产生问题回应。然而,AI模型的增强复杂性和安全措施使得获得此类回应更加困难。

有趣的是,布朗大学的研究人员发现,ChatGPT的提示过滤器可以通过使用在AI训练中较少使用的语言(如祖鲁语或盖尔语)而不是英语来绕过。

进行严格测试的必要性

兰德公司的报告强调了对AI模型进行严格测试的紧迫性,特别是考虑到它们可能带来的潜在风险。报告引用了AI安全中心的请愿书,将AI的威胁与核武器威胁相提并论。

请愿书的知名签署者包括微软创始人比尔·盖茨、OpenAI首席执行官萨姆·阿尔特曼、谷歌DeepMind首席运营官Lila Ibrahim和美国众议员泰德·利乌。

生成式AI工具已被牵涉到一系列问题行为,从推广有害的身体形象和饮食失调到策划暗杀。显然,人工智能和生物技术的交叉点为风险评估提出了独特的挑战。

对于那些对加密货币和人工智能技术领域的最新发展保持关注的人来说,cryptoview.io应用程序提供了丰富的最新信息。 立即探索Cryptoview.io

控制所有加密市场的RSI

RSI Weather

一瞥即可看到所有大容量的RSI。
使用我们的工具即时查看市场情绪或仅查看您的收藏。