智能代理技术对IT风险管理究竟意味着什么?

摘要: 该行业在人工智能领域取得了进展,现在就连IT行业的领导者也开始感到担忧了。
以图灵测试为例。它的挑战在于:让一些普通人来判断自己当前是在与机器交流,还是在与另一个人类交流。

事实上,生成式人工智能在几年前就已经通过了图灵测试。

我也向那些对人工智能技术有所了解的熟人提过这个想法,但很多人只是对我翻了个白眼,然后用怜悯的语气告诉我,我实在不够敏锐,根本看不出来生成式人工智能根本就没有通过图灵测试。我问道:“为什么呢?”他们解释说,生成式人工智能的运作原理与人类智能的运作方式根本不同,因此无法通过图灵测试。

现在,我当然可以和那些对人工智能技术更为熟悉的同事们争论一番,但这样做有什么乐趣呢?因此,我宁愿忽略“模仿游戏”这个概念的含义。如果生成式人工智能无法通过这种测试,那么我们所需要的并不是更先进的人工智能技术。

这是一个更有效的测试方法。

是什么让人工智能具备了能动性?

这就引出了我们接下来要讨论的、经过改进的新版人工智能模仿挑战赛(NIAIIC)。

NIAIIC仍然要求人类评估者来判断他们面对的是机器还是人类。不过,NIAIIC所提出的这一挑战已经与对话本身无关了。

这其实与一些更有实用价值的东西有关——也就是除尘工作。我个人愿意愿意支付1.5美元,来奖励第一个能够开发出这样的除尘机器人的AI团队:那种能够识别出普通家庭中哪些表面积满了灰尘,并且能够在不损坏任何物品的情况下清除这些灰尘的机器人。

显然,这种需要掌握的任务是人类完全可以自行完成的,根本不需要详细的指导或“编程”步骤。耐心吗?是的,进行清洁工作确实需要耐心。但指导呢?其实并不需要。

这是一项能够带来那些最热衷于支持人工智能的人所声称的各种益处的任务:它能够替人类承担那些烦人、枯燥且重复性强的工作,从而让人类有更多机会去从事那些更有意义、更能带来满足感的任务。

(是的,我坦然承认,我其实是在将自己的喜好投射到别人身上。如果你和我不同,喜欢打扫卫生并且乐在其中……那就过来吧!我甚至会为你准备浓缩咖啡!)

NIAIIC是如何融入这些常见的人工智能分类框架中的呢?它属于被称为“自主型人工智能”的技术类别——这些名称究竟是谁制定的呢?自主型人工智能是指那种能够自主确定如何实现既定目标的人工智能。自动驾驶汽车在完成它们应该完成的任务时,其实就是在运用这种技术;它们通过所谓的“测试”来验证自己的功能是否正常。

也正是这一点,使得智能体型人工智能相较于早期形式的人工智能更具吸引力。早期的人工智能依赖于人类专家将自己掌握的技能转化为一系列“如果/那么”规则,这类系统也被称作“专家系统”或“能够可靠运行的人工智能”。

令人担忧的是,具有自主能力的AI与迄今为止最糟糕的AI概念——也就是那些具备自主决策能力的AI系统——之间的距离其实非常接近。

在具有能动性的人工智能系统中,人类会设定目标,而人工智能则负责确定实现这些目标的途径;而在具有自主决策能力的人工智能系统中,人工智能会自行决定应该追求哪些目标,然后主动采取行动来实现这些目标。

从前,我并不太担心具有自主意识的人工智能会发展成天网,因为我认为:“除了电力和半导体这些资源之外,我们与具有自主意识的人工智能之间不太可能为了争夺资源而陷入激烈的竞争,因此那种会导致机器人威胁人类生存的情景也不太可能成为现实。”

是时候重新考虑这个结论了。只要在谷歌上搜索一下,你就会发现,有些人工智能芯片甚至根本无法投入使用,因为没有足够的电力来为它们供电。

我们只需要稍加想象,就能设想出这样一种反乌托邦场景:那些具有自主意识的人工智能会与我们人类竞争,试图夺取它们能够获取的所有电力资源。它们的需求与我们的需求将会发生重叠,而这种重叠的速度可能会快到我们甚至还来不及认清这种威胁的本质,更不用说采取应对措施了。

临界点

从更广泛的角度来看,任何花哪怕一点点时间去思考“自主型人工智能”所带来的风险的人,都必然会得出与微软Copilot相同的结论。我曾询问Copilot,自主型人工智能最大的风险是什么,它给出的答案是:

具有自主性或能根据自身设定的目标来行动的人工智能系统所带来的最大风险包括:对人类生存构成的威胁、被用于制造武器、削弱人类的控制能力,以及加剧偏见与错误信息的传播。这些危险之所以会出现,是因为人们赋予了人工智能系统超出单纯执行特定任务范围的自主权;如果不对这些系统进行严格的管理与监管,它们很可能会破坏社会、经济及安全秩序。

但只要我们能够遵守那条区分“具有能动性的人工智能”与“基于自愿行为的人工智能”的界限,那就没什么问题了,对吧?

简而言之,就是“不行”。

当一个具有自主能力的AI弄清楚自己应该如何来实现某个目标时,它首先需要将这个目标分解成若干较小的子目标,然后再将这些子目标进一步细分为更小的部分。

一种具有自主能力的AI,会自行设定目标,因为规划本身就是按照这种方式进行的。但一旦它开始自行设定目标,那么从定义上来说,它就具备了自主性。

这就引出了人工智能在IT风险管理方面所面临的困境。

传统的风险管理方法会识别可能发生的不良事件,并制定相应的应急计划,明确说明如果这些不良事件真的发生了,组织应该采取哪些措施。

我们只能希望,在对各种人工智能应用进行测试时,这个框架能够满足我们的需求。

智能体型人工智能,尤其是具有自主决策能力的人工智能,恰恰颠覆了这一观念。因为对于这类人工智能而言,最大的风险并不在于会发生一些意外且有害的事情,而在于它们会按照预定的计划去执行自己的任务。

具有自主决策能力的AI确实非常危险。而那些被赋予了行动能力的AI虽然可能不会本质上那么危险,但它们的危险性也已经足够高了。

遗憾的是,我们人类很可能过于短视,根本不愿意去努力减轻那些由人工智能带来的、显而易见且迫在眉睫的风险——即使是那些可能预示着以人类为主导的社会即将终结的风险,我们也愿意视而不见。

最有可能发生的情况是什么呢?我们会集体选择忽视这些风险。我也会这么做。我想要我的扫地机器人,而且现在就要得到它,哪怕这对人类社会会造成危害也不在乎。
鲁ICP备18054969号-19
ZSITE8.6