i n d ep en d en t p u b l i c a t i o n b y适用于业务的 ai公司部署 ai 的速度太快了吗 ?抓住治理差距ai 将如何影响决策r a con t e u r. n et#523061012 适用于业务的 aiw o r k p l ac e雇主担心影子 ai 的后果工人越来越多地在未经雇主批准的情况下使用 ai , 这增加了企业的法律和安全风险。需要明确的政策来遏制这种危险bloomsbury square 就业法的合伙人 chris hogg 说 , 可能使用的工具 , 在使用该技术之前应该寻求的任何批准以及使用 ai 生成的副本或结果的任何限制。该政策还应包括监督和应有的勤奋指导。它应该明确说明谁有责任评估和批准新人工智能技术的使用,并阐明违反政策的后果。“措辞明确的政策降低了员工使用影子 ai 的风险,因为他们有明确的参数可以遵循,” hogg 说。“这也使得对继续使用影子 ai 的员工采取行动变得更加容易。生意 ” 。bdb pitmans 律师事务所的就业业务合伙人 nicholas le riche 对此表示同意。他补充说 : “至关重要的是 , 该政策应明确确认它适用于在员工自己的设备和工作设备上使用 ai , 并且还应解释 ai 应用程序生成的内容将被分发。 ”cyberhaven 实验室发现 , 当员工在做一些潜在危险的事情时 , 如将源代码粘贴到每个人的 chatgpt 账户时 , 会收到一条弹出消息警告他们 , 持续的危险行为会下降 90% 。全球数字产品工作室和 b corp ustwo 最近制定了一项涵盖影子 ai 的政策。 it 负责人 greg rochford 说 : “我们的 ai 控制是我们 isms ( 信息安全管理系统 ) 和公司政策中的正式文件 , 为希望了解我们的 ai 方法的任何人提供明确的规则和透明度。 ”rochford 解释说 , 该政策详细介绍了从数据收集和培训到创新战略的所有内容 , 以及在 ustwo 内部以及为公司客户部署 ai 。这些明确的政策不仅加强了内部安全 , 而且还向客户保证 , 他们的数据正在被负责任地处理。随着组织在其员工队伍中增加人工智能的使用 , 经理们应该明智地确保使用这种技术的员工是公开的 , 而不是隐藏在阴影中。分布在与贡献者奥利弗balch丹尼尔 · 托马斯一位自由撰稿人 , 拥有 20 年工作经验的作家和编辑 , 发表在《各个方面的写作》中of《电讯报》 , 《新闻周刊》可持续发展议程。和基金战略。sam birchall emma woollacottraconteur 的职员作家 , 一位专注于财务的自由记者 , 他一直在撰写有关业务 , 技术塑造未来和科学的功能和趋势财务领导。超过 20 年。尼克 · 伊森屡获殊荣的作家和广播公司 , 涵盖科学 , 技术 , 经济和商业。竞选主管商业ollyeyre生产经理艾米丽 · 沃尔福德特殊项目编辑器伊恩deering生产主管sabrina severino子编辑器杰拉德cowan设计和插图凯莉 · 杰拉德商业内容编辑器samuele motta laura bithell设计总监commercial内容蒂姆 · 惠特洛克executive杰西卡 · 林恩尽管本出版物是通过广告和赞助资助的 , 但所有社论都没有偏见 , 赞助的功能都有明确的标签。有关即将到来的时间表 , j9九游会登录入口首页新版的合作伙伴关系查询或反馈 , 请致电 44 ( 0 ) 20 3877 3800 或电子邮件 info @ raconteur. net.racoter 是一家领先的商业媒体组织和 2022 年 ppa 年度商业媒体品牌。我们的文章涵盖了广泛的主题,包括技术,领导力,可持续性,工作场所,市场营销,供应链和金融。racoter 特别报道仅在《泰晤士报》和《星期日泰晤士报》上发表,并在 racoter 在线发表。et,在那里你还可以找到我们更广泛的新闻,并注册我们的时事通讯。the information contained in this publication has been obtained from sources the proprietors believes to be correct. however, no legal liability can be accepted for any errors. no part of this publication may be replicated without the prior consent of the publisher. @ raconteur raconteur - media @ raconteur. storiesraconteur. net/ ai - for - business - 2024 年 7 月酒店 7 - 9 十月,2024美国在佐治亚州的阿瓦隆 ,cassieramesh menon首席执行官 , 数据科学和谷歌的第一个首席决策科学家kozyrkov首席技术官兼首席 ai 官美国国防部i n s i g ht“挑战是有效地扩大 ai 采用 ”教授艾伦 · 布朗提出了一些使大规模 ai 工作的指导原则t围绕 ai 的嗡嗡声是不可避免。每天 , 新的 ai 功能宣布 , 升级后的模型被发布 , 未开发的应用程序成为焦点。除了大量的新闻之外 , 还有关于人工智能对社会影响的日益两极分化的辩论。 “人工智能末日者 ” 声称我们正在见证末日的开始 , 而“ 人工智能潮一代 ” 则认为未来从未如此光明。组织应该如何介入这些进步 ? 人工智能的哪些关键方面将塑造他们的未来 ? 而且,这对正在进行的数字化转型项目意味着什么 ? 人工智能投资回报的期望一直是雄心勃勃的。例如,艾伦图灵研究所 ( ala trig istitte ) 在 2024 年 3 月进行的一项研究发现,人工智能可能是英国政府大规模生产率提高的驱动力,可能会自动匹配 84% 的重复性任务。未来几年。但是这些可能性会成为现实吗 ?人们对人工智能是否会达到预期的严重怀疑正在出现。头条新闻的突破正在努力达到底线。与现有系统的缓慢集成以及对安全和隐私的担忧阻碍了人工智能在大型组织中的推出,而其他地方的小规模人工智能使用并没有产生除了定制服务和营销中的一些狭窄应用之外的显著收益。真正的挑战在于有效地扩大人工智能的采用。要取得成功 , 关键问题需要答案 : 我们如何将试点项目的经验转化为企业范围的转型 ? 必须克服哪些障碍才能将人工智能无缝集成到现有的工作流程中 ? 早期的成功如何发展为可衡量的 , 实质性的利益 ?领导者和决策者正在努力从人工智能实验的初始阶段转向人工智能价值创造。要取得进展,他们需要指导,认识到他们的具体问题,并关注人工智能采用的挑战。他们需要一套概念来帮助他们理解他们在使用人工智能技术时面临的风险和机会。他们希望看到人工智能成功的例子,并且必须掌握人工智能核心能力的知识,以便更好地询问哪些是可用的,哪些是在地平线上,还有很长的路要走。可部署。寻找大规模交付人工智能的方法正成为组织的重点。一些最佳做法正在出现。首先,将人工智能从试点计划扩展到整个企业计划,需要细致的规划和大量的投资。从小事做起至关重要。在受控环境中进行的试点项目允许在更广泛的实施之前进行测试和改进。这种谨慎的方法减轻了风险,为知情决策铺平了道路。其次 , 进步取决于坚实的基础。人工智能将对现有的系统和技能施加压力。确保技术和组织基础设施能够支持人工智能是至关重要的。这包括强大的数据管理、强大的计算资源和熟练的劳动力。最后,变更管理对于成功采用 ai 至关重要。人是这个过程的组成部分。成功的案例研究展示了领导者必须如何始终如一地传达他们的愿景,解决问题并提供必要的培训,以确保所有利益相关者的支持。这支持了持续改进的最终目标。ai 不是一个 “一成不变 ” 的j9九游会登录入口首页新版的解决方案。它需要持续的监测和完善。大规模交付 ai 需要跟踪 ai 性能,从结果中学习并持续增强 ai 应用程序的反馈机制。许多组织正在采用人工智能来恢复停滞和停滞的数字战略。通过了解人工智能的真正潜力 , 利用它进行数字转型并有效地扩展j9九游会登录入口首页新版的解决方案 , 领导者可以从仅仅在人工智能时代生存到在其中茁壮成长。艾伦 · 布朗教授ai 总监 , 数字领导者北美领先战略聚集专注于实施和缩放enteprise 中的遗传 ai第 2 届年度ash dhupar首席数据官bae 系统山姆 · 汉密尔顿数据和 ai 主管签证首席数据科学家、 ai 市场与创新microsoft劳拉 · 埃德尔svp - 应用 ai 转型主管pncsaima shafiqai / ml 创新主管experian詹姆斯 · 林加勒特 - 费利tammye首席数据官ut 西南医学中心书籍在线现在# genaiweek | www. genaiweek. coma i f o r b u s i n e s r a con t e u r. n e t0302emma woollacott隐私法 (ccpa) 和合规平台 isms 的健康首席执行官。保险可移植性和责任 - 在线。“人工智能的滥用可能导致美国的能力法案 (hipaa) 。意外的损害成本和安全威胁是一种特殊的控制、合规罚款和规范关注。仅有四分之一的 chatgpt 试验室损失,用于工作场所的资源帐户来自受制裁的计划和。公司账户,根据影响整体盈利能力。“数据安全公司的研究尽管存在这些风险,但组织 cyberhave 。这些非企业没有实施严格的政策,账户将信息输入到工作场所使用人工智能的过程中。公共模型,构成相当大的市场研究公司 sapio research 对敏感数据的风险,解释最近发现,不到一半的 cyberhave 首席执行官 howard tig 。企业有限制。“令人震惊的是 , 可以提交的敏感企业数据的很大一部分信息正在被提交给 ai , 其限制发送给非公司帐户。角色可以使用 genai , 这包括大约一半的来源可接受使用或严格限制代码 , 研究和开发访问。材料、人力资源和员工人工智能记录的 iso 42001 标准,“他说。事实上,38% 的英国办公室工作人员开始使用影子 ai poly - 承认他们或同事有 cy 。根据数据隐私合规性,数据管理安全协议的研究和持续,这概述了馈送敏感信息的最佳实践,例如管理安全和客户,财务或销售数据的 ai 系统,包括 geai 工具中的元素。公司 veritas technologies 。风险评估。“财务影响更广泛地说 , 关于影子的政策也很重要 , ” 卢克 · 达什说 , 人工智能应该解决人工智能的类型我已经造成了重大a整个劳动力的恐慌 , 担心技术 -nology 将取代员工。即便如此 , 许多工人还是乐于在他们的工作中使用生成人工智能 — — 但也许不是他们的经理们想要的方式。一些老板声称鼓励创新使用人工智能来简化工作流程。然而 , 太多的员工以不受雇主认可的方式使用这项技术 , 这种现象被称为 “影子人工智能 ” 。根据德勤的数据 , 在工作中使用过 genai 的人中 , 只有 23% 的人认为他们的经理会认可他们的使用方式。至关重要的是 , 在工作场所非官方使用人工智能正在使组织面临法律、财务和声誉风险。那么为什么这么多工人在狡猾地使用人工智能 ? 雇主可以做些什么来遏制这种做法 ? 苏塞克斯大学和营销公司 magenta 正在进行一项研究项目 , 研究 genai 如何在商业行业中使用。目的是为企业提供一个可以适应的最佳实践框架 -根据他们自己的需求量身定制。根据调查的初步结果 -没有发现,劳动力 it 充斥着影子 ai 。20 名工人中就有一名告诉研究人员,他们在完全保密的情况下使用人工智能,而更多的人至少是部分保密的。“更多的人与同事谈论它,而不是他们的经理,他们并不总是公开使用它的程度,” mageta