搜索
加国同城 首页 新闻资讯 加国新闻 查看内容

加拿大公司的人工智能政策旨在平衡风险与回报

2024-5-6 05:01| 发布者:青青草| 查看:7| 评论:0 |来自: 加国同城 58.ca

摘要:当人才搜索平台 Plum 注意到 ChatGPT 在科技界及其他领域引发涟漪时,它决定直接转向源头,阐明员工如何使用和不可以使用生成式人工智能聊天机器人。 ...
Caitlin MacGregor

凯特琳·麦格雷戈 (Caitlin MacGregor),滑铁卢安大略省的创始人。招聘技术公司 Plum 自 9 月份以来一直在寻求 A 轮融资,此前该公司曾通过种子轮和延期融资筹集了 1100 万美元。她的公司最近制定了一项关于员工使用人工智能 (AI) 的政策。加拿大媒体/HO-Michael Henry *必须注明*


塔拉·德尚,加拿大媒体

当人才搜索平台 Plum 注意到 ChatGPT 在科技界及其他领域引发涟漪时,它决定直接转向源头,阐明员工如何使用和不可以使用生成式人工智能聊天机器人。

ChatGPT 可以将简单的文本指令转化为诗歌、散文、电子邮件等内容,去年夏天,它起草了一份文件草案,使这家总部位于安大略省基奇纳的公司完成了最终政策的大约 70%。

“那里没有任何问题;那里没有任何疯狂的地方,”Plum 的首席执行官凯特琳·麦格雷戈 (Caitlin MacGregor) 回忆道。 “但是我们有机会变得更具体一点,或者让它更适合我们的业务。”

Plum 的最终政策是一份基于 ChatGPT 草案的四页文件,其中包含去年夏天其他初创公司的建议,建议员工将客户和专有信息排除在人工智能系统之外,审查该技术吐出的任何内容的准确性,并对其生成的任何内容进行归因。

随着人们越来越依赖这项技术来提高工作效率,这使得 Plum 成为加拿大几个在人工智能领域制定立场的组织之一。

去年秋天,联邦政府发布了一套针对公共部门的人工智能指南,促使许多人制定政策。现在,许多初创公司和大型组织已经根据自己的需求重新设计了它们,或者正在开发自己的版本。

这些公司表示,他们的目标不是限制生成式人工智能的使用,而是确保员工有足够的权力来负责任地使用它。

渥太华人工智能管理软件公司 Nuenergy.ai 的创始人 Niraj Bhargava 表示:“如果你不利用这项技术的力量,那就错了。它在提高生产力和功能方面有很多机会。”

“但另一方面,如果你在不设置护栏的情况下使用它,就会存在很多风险。存在我们星球的生存风险,但也存在偏见、公平或隐私问题的实际风险。”

在两者之间取得平衡是关键,但巴尔加瓦表示,“没有一种适用于所有组织的政策”。

他说,如果你是一家医院,你可能会对什么是可接受的答案有与私营科技公司截然不同的答案。

然而,有一些原则经常出现在指导方针中。

一是不要将客户或专有数据插入人工智能工具,因为公司无法确保此类信息保持私密性。它甚至可以用来训练为人工智能系统提供动力的模型。

另一种方法是将人工智能吐出的任何内容都视为可能是错误的。

人工智能系统仍然不是万无一失的。科技初创公司 Vectara 估计,人工智能聊天机器人至少有 3% 的时间会发明信息,在某些情况下甚至高达 27%。

公元前律师不得不在二月份向法庭承认,她引用了ChatGPT捏造的两起家庭纠纷案件。

一名加州律师在 2023 年 4 月要求聊天机器人编制一份对某人进行过性骚扰的法律学者名单时,也发现了类似的准确性问题。它错误地提到了一位学者的名字,并引用了一篇不存在的《华盛顿邮报》文章。

制定人工智能政策的组织也经常涉及透明度问题。

“如果你不会将别人写的东西归为你自己的作品,那你为什么要把 ChatGPT 写的东西归为你自己的作品呢?”加拿大高级研究所(CIFAR)泛加拿大人工智能战略执行主任艾丽莎·斯特罗姆(Elissa Strome)提出质疑。

许多人表示,当它被用来解析数据、编写文本或创建图像、视频或音频时,人们应该被告知,但其他情况并不那么清楚。

“我们每天可以使用 ChatGPT 17 次,但是我们是否必须每次都写一封电子邮件来披露它?如果您正在确定您的旅行行程以及是否应该乘坐飞机或汽车之类的事情,则可能不需要, ”巴尔加瓦说道。

“有很多无伤大雅的案例,我认为我不必透露我使用了 ChatGPT。”

目前还不清楚有多少公司探索了员工使用人工智能的所有方式,并传达了哪些是可以接受的,哪些是不可以接受的。

咨询公司毕马威 (KPMG) 2023 年 4 月对 4,515 名加拿大人进行的一项研究发现,使用生成式人工智能的加拿大人中有 70% 表示他们的雇主针对该技术制定了政策。

然而,软件公司 Salesforce 和 YouGov 于 2023 年 10 月进行的研究得出的结论是,在接受调查的 1,020 名加拿大人中,有 41% 的人表示他们的公司没有在工作中使用生成式人工智能的政策。大约 13% 的企业只有“松散定义”的指导方针。

在永明金融公司,员工被禁止使用外部人工智能工具进行工作,因为该公司无法保证使用这些系统时客户、财务或健康信息的私密性。

然而,该保险公司允许员工使用 Anthropic 的 AI 聊天机器人 Claude 和基于 AI 的编程助手 GitHub Copilot 的内部版本,因​​为该公司能够确保两者都遵守其数据隐私政策,首席信息官 Laura Money 表示。

到目前为止,她已经看到员工使用这些工具编写代码、制作备忘录和视频脚本。

为了鼓励更多人进行实验,该保险公司鼓励员工参加 CIFAR 的自学免费在线课程,该课程教授人工智能原理及其影响。

对于这一举措,马尼表示,“你希望你的员工熟悉这些技术,因为这可以提高他们的工作效率,让他们的工作生活变得更好,让工作变得更有趣。”

自几周前向大约 400 名工人提供该课程以来,已有约 400 名工人报名参加。

尽管提供了该课程,永明金融知道,由于人工智能发展如此之快,其技术方法必须不断发展。

例如,Plum 和 CIFAR 各自在生成人工智能工具(超越文本以创建声音、音频或视频)出现之前就各自推出了自己的政策。

MacGregor 在谈到 2023 年夏天时说道:“当时的图像生成水平与现在不同。”当时 Plum 通过一场黑客马拉松推出了人工智能政策,要求员工用 ChatGPT 写关于该业务的诗,或者尝试它如何解决一些问题。企业的问题。

“每年一次的审查肯定是必要的。”

巴尔加瓦对此表示同意,但表示许多组织仍需迎头赶上,因为他们还没有政策。

“现在是时候这样做了,”他说。

“如果精灵从瓶子里出来,我们就不会想‘也许明年我们会这么做。’”

加拿大报社的这篇报道于 2024 年 5 月 6 日首次发表。

这个故事中的公司:(TSX:SLF)

来源链接:

https://www.cp24.com/news/canadian-companies-ai-policies-aim-to-balance-risk-with-rewards-1.6874608


路过

雷人

握手

鲜花

鸡蛋

最新评论

联系客服 关注微信 返回顶部