尽管围绕生成式人工智能的讨论很热烈,但大多数行业专家尚未解决一个重要问题:是否有一个基础设施平台可以长期支持这项技术,如果有的话,它是否具有足够的可持续性来支持生成式人工智能所承诺的激进创新?
生成式人工智能工具已经享有盛誉,只需点击一下按钮即可编写合成良好的文本——否则这些任务可能需要数小时、数天、数周或数月才能手动完成。
这一切都很好,但如果没有适当的基础设施,这些工具根本不具备真正改变世界的可扩展性。生成人工智能的天文数字运营成本很快就会超过760 亿美元,这已经证明了这一事实,但还有其他因素在起作用。
企业需要专注于创建和连接正确的工具以可持续地利用它,并且必须投资于集中式数据基础设施,使所有相关数据能够无缝地访问其法学硕士,而无需专用管道。通过战略性地实施适当的工具,尽管数据中心目前存在容量限制,他们将能够提供他们所寻求的业务价值——只有这样,人工智能革命才能真正推进。
熟悉的模式
凯捷研究院的一份新报告显示,74%的高管认为生成式人工智能的好处超过了其担忧。这样的共识已经促进了企业的高采用率——大约70%的亚太组织要么表达了投资这些技术的意图,要么已经开始探索实际用例。
但世界以前就已经走过这条路了。以互联网为例,它逐渐受到越来越多的关注,然后通过无数出色的应用超出了人们的预期。尽管其功能令人印象深刻,但只有当其应用程序开始为企业大规模提供有形价值时,它才真正起飞。
超越 ChatGPT
人工智能也陷入了类似的循环。企业已经迅速接受了这项技术,估计 93%的企业已经参与了多项 AI/ML 用例研究。但尽管采用率很高,许多企业仍然在部署方面遇到困难——这是数据基础设施不兼容的明显迹象。
有了适当的基础设施,公司就可以超越生成人工智能诱人功能的表面水平,并利用其真正的潜力来改变他们的业务格局。
事实上,生成式人工智能可以帮助快速撰写摘要,并且在大多数情况下非常有效,但它的潜力远远不止于此。从潜在的药物发现到医疗保健治疗再到供应链优化,如果支持和驱动人工智能应用程序的数据中心不够强大,无法管理其工作负载,那么这些突破都是不可能实现的。
克服可扩展性障碍
由于缺乏可扩展性,生成式人工智能尚未真正为企业带来重大价值。这是因为数据中心存在容量限制——它们的基础设施最初并不是为了支持大型语言模型 (LLM) 高效运行多个训练周期所需的大规模探索、编排和模型调整而设计的。
因此,从生成式人工智能中获得价值取决于企业如何利用自己的数据,而这可以通过开发强大的数据架构来改进。这可以通过将结构化和非结构化数据源连接到法学硕士或通过增加现有硬件的吞吐量来实现。
对于希望在组织数据上培训法学硕士的公司来说,首先必须以统一的方式整合这些数据,这一点至关重要。否则,孤立结构中的数据可能会对法学硕士的学习能力产生偏差。
支持系统
生成式人工智能并不是凭空出现的——它已经酝酿了相当长一段时间了,而且它的使用和潜力只会在未来几十年内不断增长。但目前,其业务应用程序遇到了不可扩展的障碍。
现实情况是,这些不同的工具的强大程度取决于支持它们的数据处理基础设施。因此,企业领导者必须利用能够处理 PB 级数据的平台,这些工具需要切实地兑现其承诺的重大价值。