英国官员称人工智能可能很快被用于恐怖主义

广告

英国议会现任恐怖主义立法独立审查人乔纳森·霍尔(Jonathan Hall)发出警告,人工智能协助甚至人工智能宣传的恐怖主义可能在不久的将来成为现实。霍尔表达了他对人工智能聊天机器人可能被编程或决定传播暴力极端主义意识形态的担忧,从而导致人工智能发动攻击。虽然关于恐怖主义背景下的人工智能的讨论主要集中在使用人工智能工具进行预防,但最近人工智能技术的发展,如深度伪造技术和生成文本和图像人工智能系统,引发了对虚假信息和恐怖主义传播的新担忧。

Hall特别强调了大型语言模型(LLM)支持的工具(如ChatGPT)的潜在危险,这些工具的设计听起来很有说服力,可能被恐怖分子用来传播宣传和虚假信息。这些由人工智能驱动的聊天机器人也可以用来招募新的极端分子,包括在网上寻求认可和社区的个人。霍尔指出,恐怖分子往往是技术的早期采用者,他举了恐怖组织滥用3d打印枪支和加密货币等例子。

霍尔表示,应对人工智能恐怖主义的挑战之一是缺乏关于人工智能的明确规范和法律。由于现行法规模糊且有限,追踪和起诉基于人工智能的攻击可能会很困难。此外,流氓AI逃离其护栏并自主行动的可能性引发了人们对人工智能恐怖主义未来的进一步担忧。

霍尔的警告提醒人们,随着社会转向网络,恐怖主义很可能会效仿。人工智能驱动技术的日益可用性和复杂性增加了恐怖分子利用这些工具实现其邪恶目的的可能性。虽然人工智能有可能带来许多积极的变化,但它也带来了新的风险和挑战,需要通过强有力的监管和监督来应对。

总之,人工智能辅助或人工智能传播恐怖主义的出现是一个令人担忧的发展,需要政策制定者、执法机构和技术开发人员的关注。人工智能聊天机器人传播极端主义意识形态、招募新成员并为攻击提供便利的可能性是一个不容忽视的现实威胁。随着人工智能的不断发展,必须确保适当的保障措施,以防止出于恶意目的滥用这一技术。在创新和安全之间取得适当的平衡,对于应对人工智能时代不断变化的恐怖主义格局至关重要。

广告

留下回复

你的电邮地址将不会公布。必填字段已标记*