随着不同的专家、伦理学家甚至政府都在推动提高人工智能工具开发和使用的安全性,微软在构建阶段宣布了针对人工智能内容安全的新措施。
在一系列针对负责任人工智能的更新中,微软推出了目前处于预览阶段的AzureAI内容安全,以及其他措施,例如其AI工具(如Designer和Bing)的媒体来源功能。
(相关资料图)
另外:人工智能伦理学家表示,如果我们现在不采取行动,今天的人工智能繁荣将加剧社会问题
MicrosoftDesigner和BingImageCreator都将让用户能够通过即将推出的媒体源更新来确定图像或视频是否是AI生成的。这将通过加密方法来实现,该方法将能够使用有关其创建的元数据来标记人工智能生成的媒体。
在MicrosoftBuild开发者大会期间,该公司还宣布了在其平台上开发副驾驶和插件的更简单、更简化的方法。SarahBird是微软合作伙伴组产品经理,负责领导基础技术的人工智能。
伯德解释说,开发人员有责任确保这些工具提供准确、预期的结果,而不是带有偏见、性别歧视、种族主义、仇恨或暴力的提示。
Bird表示:“这是为GitHubCopilot提供支持的安全系统,也是为新Bing提供支持的安全系统的一部分。我们现在将其作为第三方客户可以使用的产品推出。”
负责任地开发人工智能是科技公司的话题。高性能机器学习公司VianaiSystems的首席执行官VishalSikka博士解释说,迫切需要安全、可靠并能增强人性的人工智能系统。
Sikka补充道:“确保以人类为中心的人工智能工具的开发、实施和使用,以及用于监控、诊断、改进和验证人工智能模型的强大框架,将有助于减轻此类系统固有的风险和危险。”
微软新的AzureAI服务将集成到AzureOpenAI服务中,并通过采用专门创建的模型来识别图像和文本中的不当内容,帮助程序员开发更安全的在线平台和社区。
这些模型将标记不适当的内容并分配严重性评分,指导人类主持人确定哪些内容需要紧急干预。
另外:ChatGPT和新的人工智能正在对网络安全造成严重破坏
此外,Bird解释说,AzureAI内容安全的过滤器可以根据上下文进行调整,因为该系统也可以用于非AI系统,例如需要上下文来对数据进行推理的游戏平台。
负责任地发展人工智能甚至已经达到了政府的要求。微软、谷歌、OpenAI等人工智能公司CEO本月初与副总统卡玛拉·哈里斯举行了两个小时的会议,讨论人工智能法规,人工智能权利法案正在制定中。
标签: