就目前而言,人工智能产品和服务市场呈现一片混乱。核心问题是人们不知道人工智能系统如何工作、何时使用它们,以及输出结果是利还是弊。
以最近一家咨询生成式人工智能服务的公司为例,该服务预计每年花费数十万美元。该公司担心落后于竞争对手,并且在供应商之间难以选择。
然而,在讨论的前15分钟内,该公司透露,他们对于该业务可能带来的潜在收益没有可靠信息,也不了解其团队对现有生成式人工智能的使用情况。
我们必须把这件事做对。如果你相信哪怕只是一小部分宣传,人工智能对澳大利亚来说都是一个巨大的机遇。联邦政府引用的估计表明,到2030年,人工智能和自动化可能带来的经济提振每年高达6000亿澳元。这将使澳大利亚GDP比2023年的水平提高25%。
但这一切都面临风险。证据在于人工智能项目的失败率惊人地高(根据一些估计超过80%),一系列鲁莽的推出,公民信任度低,以及在行业和政府中可能出现数千个类似“机器人债务”的危机。
决策者缺乏技能和经验无疑是问题的一部分。但人工智能创新的快速步伐正在加剧另一个挑战:信息不对称。
信息不对称是一个简单的诺贝尔奖经济学概念,对每个人都有严重的影响。当买卖双方对产品或服务的了解不均时,这不仅意味着一方以另一方的代价获利。这可能导致低质量商品主导市场,甚至导致市场完全失败。
人工智能极大地加剧了信息不对称。人工智能模型技术复杂,常常嵌入并隐藏在其他系统中,并且越来越多地被用于做出重要选择。
平衡这些不对称性应该引起我们所有人的深切关注。董事会、高管和股东希望人工智能投资能够获得回报。消费者希望系统符合他们的利益。我们都希望享受经济扩张带来的好处,同时避免人工智能系统失败时,或者被恶意使用或不当部署时,可能造成的非常真实的伤害。
至少在短期内,销售人工智能的公司通过限制信息以获得与天真交易对手的交易机会,从而获得实际利益。解决这个问题需要的不仅仅是提升技能。这意味着使用一系列工具和激励措施来收集和分享关于人工智能系统的准确、及时和重要的信息。
现在是采取行动的时候了。澳大利亚各地的企业可以采用《自愿性人工智能安全标准》(或国际标准化组织的版本),并开始收集和记录他们今天做出更好人工智能决策所需的信息。
这将有助于两个方面。首先,它将帮助企业采取结构化的方法来理解和管理其自身对人工智能系统的使用,向他们的技术合作伙伴提出有用的问题(并要求答案),并向市场表明他们的人工智能使用是值得信赖的。
其次,随着越来越多的企业采用该标准,澳大利亚和国际供应商以及部署者将感受到市场压力,以确保他们的产品和服务符合用途。反过来,这将使我们所有人更容易、更便宜地了解我们购买、依赖或被其评判的人工智能系统是否真的满足我们的需求。
澳大利亚的消费者和企业都希望人工智能安全且负责任。但我们迫切需要缩小愿望与实践之间存在的巨大差距。
国家人工智能中心的《负责任人工智能指数》显示,虽然78%的组织认为他们正在负责任地开发和部署人工智能系统,但只有29%的组织正在为此采取实际行动。
安全和负责任的人工智能是良好治理与良好商业实践以及以人为本的技术相结合的产物。从更宏观的角度来看,它也关乎确保创新在一个运作良好的市场中蓬勃发展。在这两个方面,正确的标准都可以帮助我们拨开迷雾,开辟道路。
本文撰文:尼古拉斯·戴维斯,悉尼科技大学新兴技术行业教授兼人文技术研究所联合主任
关闭