激光网
当前位置: 首页 > 光粒网 > 软件 > 正文

微软在Azure Studio中推出新的负责任的人工智能工具

2024-03-29 11:51:13  来源:激光网原创    

激光网3月29日消息,微软在 Azure AI Studio 中引入了新的负责任的人工智能工具,旨在减少企业对生成式人工智能系统的许多犹豫。

该公司周四推出了提示屏蔽、接地检测、系统安全信息、安全评估以及风险和安全监控。

近几个月来,这家科技巨头及其竞争对手谷歌正在努力应对其生成式人工智能工具的挑战。

与此同时,谷歌关闭了其Gemini大型语言模型的图像生成功能,因为它生成了关键历史人物的有偏见的图像。

谷歌还扩展了其搜索生成体验,允许它回答用户问题。但是,有报道称 SGE 的回复是垃圾邮件和提示恶意软件和诈骗。

新的负责任的人工智能工具解决了那些对使用生成式人工智能犹豫不决的企业的担忧。

Forrester Research分析师Brandon Purcell表示:“当今企业采用生成式人工智能的障碍之一是信任,即对这些系统缺乏信任。

许多企业担心幻觉,即 LLM 或人工智能工具生成不正确的信息,以及这些工具容易受到 IP 泄漏的影响。

“微软是......发布希望有助于在市场上建立信任的产品,“Purcell说。

例如,Prompt Shields 检测并阻止提示注入攻击。它目前提供预览版。提示注入是指恶意用户试图让 LLM 做一些它不应该做的事情,例如提供对其训练数据的访问权限或参与仇恨言论或色情内容。

另一个工具是接地检测,有助于检测模型输出中的幻觉。该工具即将推出。

Gartner分析师Jason Wong表示:“减少幻觉可能是将生成式人工智能用于关键任务业务用例的主要看似无法解决的挑战之一。

由于大多数语言模型倾向于产生幻觉,因此减少幻觉的工具对企业至关重要。

“接地检测应该降低幻觉率,让企业有信心和信任系统正在正常工作,”珀塞尔说。

东北大学人工智能政策顾问迈克尔·贝内特表示,微软新的负责任的人工智能工具还显示了供应商如何应对欧盟和美国出台的一些新法规。

因此,贝内特说,拥有这些负责任的人工智能保障措施可以缓解在欧盟开展业务的企业的思想。

“这些类型的保障措施可能会让那些大公司更加放心,而不是完全消除这种担忧,”他说。

他补充说,企业也会放心使用美国的系统,因为美国不同的州区已经引入了单独的人工智能法律。

然而,尽管供应商采取了保障措施,但企业必须进行尽职调查,Purcell说。

“无论微软或其他公司推出了多少出色的功能,使用生成式人工智能的公司都需要有一个严格的监控系统,以便能够检测模型何时表现不佳并导致不良的业务成果,”他说。

微软推出的其他负责任的人工智能工具包括安全系统消息、安全评估以及风险和安全监控。

安全系统消息即将发布,将模型的行为引导到安全输出。安全评估评估应用程序对越狱攻击的脆弱性。它以预览版提供。风险和安全监视了解哪些模型输入、输出和最终用户触发内容过滤器。它还提供预览版。

免责声明: 激光网遵守行业规则,本站所转载的稿件都标注作者和来源。 激光网原创文章,请转载时务必注明文章作者和来源“激光网”, 不尊重本站原创的行为将受到激光网的追责,转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:Email:133 467 34 45@qq.com