经过多月测试之后,微软日前正式发布AI内容审核工具Azure AI Content Safety。该工具包含一系列经过训练的AI模型,可检测图片或文本中与偏见、仇恨、暴力等相关的负面内容,并能理解并检测包含八种语言的图片或文本,为被标记的内容严重性打分,指示人工审核员哪些内容需要采取行动。该内容审核工具最初整合到Azure OpenAI服务中,微软现在以独立系统方式正式推出。