在多年被告知数据是新货币之后 ,人工智能经历繁荣并开始在全球范围内获得关注只是时间问题 。

因此,当科技巨头和所有接触它的人上个月来到伦敦讨论人工智能和其他技术的状况时,这似乎是科技资讯测试市场需求、用例和对ChatGPT及其同类的担忧的最佳时机。
初次采用
与所有技术转变一样,采用是渐进的 ,有些人可能会说是无意识的,许多公司实施人工智能来提高员工的生产力。
人工智能现在可以发现改善客户互动的方法,发现数据集中的统计异常 ,以及将整个工作从员工的办公桌上拿走。
金融服务就是一个很好的例子,MSU联邦信用合作社的首席战略和创新官本·马克西姆告诉伦敦科技周刊:“我们关注的是更广泛的自动化,对话式人工智能实际上是客户体验的自动化 。
“最近 ,我们一直在与我们的人工智能合作伙伴合作,集成大型语言模型(LLM),以帮助改进我们的训练数据 ,并加快我们在训练聊天机器人时必须进行的一些日常更新的上市速度。”
利用数据
马克西姆补充说,他的公司也在询问如何使用和解锁它拥有的所有数据。
“金融机构拥有丰富的数据集,尽管它们被遗留系统和数据治理束缚住了 ,这使得很难使用这些数据 。我们在人工智能领域的许多能力取决于金融科技和初创企业内部的合作伙伴来帮助我们释放数据的力量, ”他说。
“挑战肯定在于数据,因为正在生成大量数据,”技术支持组织Let'sMind的首席执行官兼创始人Wendy Jephson说。
“我接受了行为科学家的培训 ,以改善金融服务业的决策,因为许多决策都是在数据中做出和保存的 。”
虽然庞大的数据量可能是一个问题,但Next Gate Tech的首席执行官兼联合创始人大卫·马图奇看到了另一面 ,即“不同的机器学习模型可以发现异常,评估信号和模式,并创建电子邮件和文档。
“在我看来 ,主要的复杂性是让企业了解人工智能的不同应用。有必要教育大型机构如何使用人工智能模型来平滑他们的流程 。”
信任
当然,没有什么是一帆风顺的。伦敦科技周的专家们认为有必要强调聊天GPT是一个公共分类账,这一事实证明了这一点。
然而 ,当围绕一项技术的炒作与围绕生成性AI和LLM的炒作一样多时,企业往往会在不考虑后果的情况下加入进来 。
正如杰弗森所说:“在许多单独的用例中,人工智能可以用来提高效率——比如聊天机器人和客户支持 ,企业可以更有效地处理重复的问题,但我认为我们必须仔细考虑这些模型的有效性,以及在实现这些效率时我们可能会失去什么。 ”
KPMG英国互联技术公司负责人保罗·亨宁格奇怪地指出,像聊天GPT这样的生成式人工智能的积极一面是它“失败得很好”
然而 ,统一人工智能的首席执行官兼创始人萨沙·哈科将这一现象描述为“令人震惊”。
“这将给生成人工智能带来很多问题,因为它看起来是正确的,你不会仔细检查你得到的信息是否真实 ,因为你被告知的最后20件事是正确的, ”她说。
阳性假阳性
哈科说,当你把它作为事实发布在社交网络或公开的地方时 ,问题就出现了 。
“其他人认为它是正确的,它被传播开来,但你忽略了这样一个事实 ,即它起源于一个相当不准确但可信的来源。”
“幻觉,即人工智能似乎在编造一些东西,绝对是一个弱点 ,但它也是一个特征,因为以前的人工智能在失败时会想出一些疯狂的事情,”亨尼格说。
“然而ChatGPT会试图给出一个答案,这个答案可能是错误的 ,也可能是正确的,但听起来似乎是合理的 。
“我认为,当我们讨论这项技术将如何影响企业时 ,这很有启发性,也就是说,这是关于它能多准确地实现你想要它做的事情 ,但也是关于你是否有一个围绕它的应用程序 、一个流程或围绕它的人知道发生故障时该怎么做。 ”
正确的答案
人工智能,尤其是生成性人工智能,似乎仍然需要谨慎处理。毕竟 ,幻觉很少是一个好兆头 。
然而,采用ChatGPT会给人一种精灵已经从瓶子里出来的印象。
考虑到这一点,谷歌DeepMind首席商务官科林·默多克和IBM数据和人工智能副总裁杰伊·林伯恩认为 ,对企业来说,最好的前进道路是采取审慎的采用方式,同时进行控制技术的政府监管。
林伯恩说:“企业只需要确保他们对这项技术负责,并将原则应用于他们的使用 。”
“Watson X的很大一部分是关于底层AI治理 ,让任何构建AI的人都能够管理模型的整个生命周期。
林伯恩补充说,还有政策部分。“与政府、行业接触,影响围绕负责任地使用人工智能的监管 ,并确保该监管适用于行业,而不一定是一个大的广泛监管 。”
默多克补充说,公司现在需要开始思考他们将如何与人工智能合作 ,他们可以通过现在开始与内部和外部利益相关者就好处和潜在缺点进行对话来做到这一点。
“这是我们所有人的责任, ”林本说。
“这是关于积极参与,帮助推动创新 ,但要确保我们负责任地做这件事,并确保我们在如何使用和实施人工智能方面有自己的原则。”