A Microsoft mudou seu política para proibir os departamentos de polícia dos EUA de usar IA generativa para reconhecimento facial por meio do Azure OpenAI Service, o invólucro totalmente gerenciado e focado na empresa da empresa em torno das tecnologias OpenAI.

O texto adicionado na quarta-feira aos termos de serviço do Azure OpenAI Service proíbe integrações com o Azure OpenAI Service de serem usadas “por ou para” departamentos de polícia para reconhecimento facial nos EUA, incluindo integrações com modelos de análise de texto e fala da OpenAI.

Um novo item separado cobre “qualquer aplicação da lei em todo o mundo” e proíbe explicitamente o uso de “tecnologia de reconhecimento facial em tempo real” em câmeras móveis, como câmeras corporais e câmeras de painel, para tentar identificar uma pessoa em “descontrolados, no -selvagens”.

As mudanças nos termos ocorrem uma semana depois que a Axon, fabricante de produtos de tecnologia e armas para militares e policiais, anunciou um novo produto que aproveita o modelo de texto generativo GPT-4 da OpenAI para resumir o áudio das câmeras corporais. Os críticos foram rápidos em apontar as armadilhas potenciais, como alucinações (mesmo os melhores modelos generativos de IA hoje inventam fatos) e preconceitos raciais introduzidos a partir dos dados de treinamento (o que é especialmente preocupante, dado que as pessoas de cor são muito mais probabilidade de ser parado pela polícia do que seus pares brancos).

Não está claro se a Axon estava usando GPT-4 por meio do Azure OpenAI Service e, em caso afirmativo, se a política atualizada foi em resposta ao lançamento do produto Axon. OpenAI tinha anteriormente restrito a utilização de seus modelos para reconhecimento facial por meio de suas APIs. Entramos em contato com Axon, Microsoft e OpenAI e atualizaremos esta postagem se recebermos resposta.

Os novos termos deixam margem de manobra para a Microsoft.

A proibição total do uso do serviço Azure OpenAI refere-se apenas aos EUA, não internacional, polícia. E não cobre o reconhecimento facial realizado com estacionário câmeras em controlada ambientes, como um back office (embora os termos proíbam qualquer uso de reconhecimento facial pela polícia dos EUA).

Isso acompanha a abordagem recente da Microsoft e do parceiro próximo OpenAI aos contratos de aplicação da lei e defesa relacionados à IA.

Em janeiro, reportagem da Bloomberg revelado que a OpenAI está a trabalhar com o Pentágono numa série de projetos, incluindo capacidades de segurança cibernética – um desvio da proibição anterior da startup de fornecer a sua IA aos militares. Em outros lugares, a Microsoft lançou o uso da ferramenta de geração de imagens da OpenAI, DALL-E, para ajudar o Departamento de Defesa (DoD) a construir software para executar operações militares, por A interceptação.

O serviço Azure OpenAI foi disponibilizado no produto Azure Government da Microsoft em fevereiro, adicionando recursos adicionais de conformidade e gerenciamento voltados para agências governamentais, incluindo autoridades policiais. Em um postagem no blogCandice Ling, vice-presidente sênior da divisão governamental da Microsoft, Microsoft Federal, prometeu que o Azure OpenAI Service seria “submetido para autorização adicional” ao DoD para cargas de trabalho que apoiam missões do DoD.

Atualizar: Após a publicação, a Microsoft disse que sua alteração original nos termos de serviço continha um erro e, na verdade, a proibição se aplica apenas ao reconhecimento facial nos EUA. Não é uma proibição geral para os departamentos de polícia usarem o serviço.

Fuente