欢迎光临: TPP CONSULTANCY & SERVICE
  Home  >  洞见

洞见

不要被人工智能的炒作分散注意力

字数统计:2989字 预计阅读时间:约6分钟


在当前这个信息爆炸的时代各种新兴技术如雨后春笋般涌现其中人工智能等新技术更是被视为未来发展的关键。然而面对这些疾速发展的新技术我们应该如何正确、有效地进行把握和应用?这就需要我们在欣赏其所带来的便捷与效率的同时也不能忽视其潜藏的风险。




01 One


科技泡沫的挑战:看透炒作,做出明智决策

科技泡沫对企业管理者构成了一种挑战。一方面,他们感受到投资新兴技术以优先竞争对手的压力,另一方面,他们不愿被空洞的炒作所误导。当经济不确定性增加,多个行业开始裁员时,决策者们短兵相接,努力寻找在何处削减成本以及在何处增加投资。


人工智能和机器学习领域的迅速发展特别给商业决策者提出了独特的挑战。人们普遍认为,投资于经过验证的预测模型是理智的行为,这种观点推动了人工智能支出的大幅增长,从2022年的330亿美元预计将增长到2025年的640亿美元。然而,在技术前沿,诸如ChatGPT、Bing AI、DALL-E 和Midjourney等生成性AI引发了大量的炒作和投机行为。





02 Two

理解噪音和影响

生成性AI是指那些通过在海量的文本和图像数据库上进行训练,能够生成新的文本和图像的机器学习模型。由于资金大量涌入生成性AI领域,从2022年的6.13亿美元增加到2023年的23亿美元,这使得有关"如何利用ChatGPT取得优势"的炒作新闻越来越多。

为了不错过难得的机会,同时又不想浪费资源去应对这些过度炒作的技术,企业管理者需要深入理解科技泡沫的本质。这些泡沫依赖于叙事——人们会讲述新技术的发展趋势和其对社会和经济的潜在影响。不过,遗憾的是,围绕新技术的早期叙事往往是错误的。实际上,过度估计新系统的价值和潜力就是形成泡沫的关键。

预测技术的未来走势一直是个棘手的问题因为没有人能准确预见人类会以何种创新的方式使用和实施这些工具,也无法预知人们会如何利用新的工具来获取优势。未来学家罗伊·阿马拉(Roy Amara)提出了一条现如今被广泛引用的定律:“我们倾向于高估一项技术的短期影响,而低估其长期影响”。

这种不切实际的预测已经在生成性AI中得到体现。例如,一些热衷于人工智能的人声称ChatGPT距离实现通用人工智能仅一步之遥,他们预测人工智能将带来的影响将远超农业革命、工业革命和互联网革命的总和。而另一些人则持更悲观的观点,他们认为这些大型语言模型将带来巨大的冲击,甚至呼吁禁止训练比GPT-4更强大的人工智能系统。

虽然这些观点看似冲突,但他们共同构成了对未来的狂热期待,这与企业实际能够通过使用生成性AI工具实现的目标大相径庭。他们无法为企业管理者提供关于这些技术的实际运作方式,也无法准确评估这些工具的风险和限制,更别说判断这些工具是否能够提升公司的日常运营效率和盈利能力了。

新闻媒体也因为“害怕错过”而煽风点火,他们的报道往往先入为主,进一步加剧了科技泡沫的形成。实际上,这种对未来的预测有着悠久的错误历史,以往的经验表明,我们没有理由相信这些预测能够准确。

科技泡沫的破裂和形成是一个循环过程,企业管理者应该明白这一点,然后以更理智、更实际的方式面对新兴技术。他们应该了解自己企业的需求和目标,并以此为指导来判断哪些技术是真正有价值的,哪些只是短暂的炒作。





03 Three


持谨慎态度,面对技术未来

在过去的预测中,我们遇到过一些失误,让我们深感警醒。面对不断涌现的技术前景预言,作为公司的高层管理者,我们需要保持冷静,避免被虚无的炒作所吸引。在团队内部,我们需要培养出一种有组织的怀疑态度,这并非是一种消极或轻蔑的怀疑,而是对新技术的功效进行严谨、科学的评估和推理。

对于新技术的主张,我们要寻找坚实的经验依据,而非停留在臆测的层面,如“这会如何演变?”或“有什么影响?”。应该从基本事实出发,提出如“我们知道什么?”以及“证据是什么?”等问题,深入探究技术是如何运作、其预测的可靠性以及其他输出的质量。

特别是当信息来源于已知的技术炒作媒介,如咨询公司、供应商和行业分析师时,我们更需要保持清醒的批判性思考。






04 Four


充分评估,应对技术风险

在探索和尝试各种公开可用的生成式人工智能工具时,我们必须充分了解和评估其带来的潜在风险。以众所周知的ChatGPT为例,它可能会生成虚假信息,如引用根本不存在的文本。因此,在使用这类技术时,我们需要进行严格监控,特别是当这些生成式人工智能系统的输出可能被客户接触到,可能会对公司的声誉造成影响。

我们面临的风险不止于此。还包括无意中失去知识产权或敏感信息控制,例如,三星就曾因员工无意中将敏感公司数据输入到ChatGPT中,导致ChatGPT用这些数据训练了模型。我接触过的一些艺术家、设计师和出版商,他们坚决拒绝以可能损害自己或客户知识产权的方式使用生成式人工智能。





05 Five


制定规则,规范应用

考虑到这些潜在风险,对于计划尝试生成式人工智能的公司,我们需要为其使用制定基本规则。首要步骤就是要求所有使用这些技术的工作人员进行充分的信息披露。

在制定使用政策时,我们可以设定一些基本要求,例如,生成式人工智能的使用绝不应违反现有的道德和法律准则,公司应考虑对输入到这些系统的数据类型进行限制。对于如何使用生成式人工智能,人力资源管理协会和其他组织发布的工作场所指南提供了一些值得参考的想法,作为企业管理者,我们应当持续关注这些思考和建议。

另外,我们还需要关注其他风险。有些技术批评家警告说,企业使用生成式人工智能的方式可能会降低员工的生活质量,使他们的生活更加艰难。因此,作为管理者,我们应确保这种情况不会发生,并积极促进这些技术的使用,使员工的生活更轻松、压力更小,更具人性化。






06 Six


总结

综上所述,科技的发展带给我们无数的便利,同时也存在着种种风险。我们需要在善用科技帮助的同时对于新技术产生的问题有所警觉,实施严谨的评估和推理,避免陷入过度炒作的陷阱。并且,我们必须充分认识到科技的应用并不是无底线的,我们需要在使用新技术的过程中,严格遵守道德和法律准则,确保数据的安全和隐私。同时,也要时刻关注新技术对员工生活质量的影响,为他们创造一个更加人性化的工作环境。科技的发展是为了人,而不是反过来,我们不能让科技的发展损害人的利益。因此,科技的发展道路上,我们需要更为谨慎和理性地去思考,去把握,以便更好地服务于我们的生活和工作。



如果需要了解更多内容,欢迎与我们联系,我们将提供专业的管理咨询和数字化流程软件帮助我们的顾客。

邮箱:Marketing@tppconsultancy.com

电话:400 102 1300




订阅

注册将获得TPP咨询中国电子简报

订阅

洞见

  • 智审核和智快反免费体验!

  • 一文看懂注塑成型工艺

  • 和强势同事打交道的5个实用技巧

  • 不是所有量检具该做 MSA,得看测什么

  • 降低采购成本,不止砍价那么简单

  • 避免紧固失败的六个关键提醒

  • 如何领导那些不喜欢你的人

  • 五种数字化转型失败案例及避免方法

  • 质量工程师如何利用数据寻找根本原因

  • 你真的了解数据平台吗?