Hollywood e outras indústrias ainda estão lutando para integrar a IA em seu fluxo de trabalho, mas a administração Biden começou hoje a colocar barreiras de concreto em torno da tecnologia que poderia literalmente mudar tudo.

“Quando as agências governamentais usarem ferramentas de IA, exigiremos agora que verifiquem se essas ferramentas não colocam em risco os direitos e a segurança do povo americano”, afirmou a vice-presidente Kamala Harris na quarta-feira, antes do recém-lançado Advancing Governance do Escritório de Gestão e Orçamento, Memorando de Inovação e Gerenciamento de Risco para Uso de Inteligência Artificial por Agências.

“No ano passado, na Cimeira de Segurança da IA ​​em Londres, apresentei a visão da nossa nação para o futuro da IA”, disse o Vice-Presidente. “Uma visão para um futuro onde a IA seja usada para promover o interesse público, e vou enfatizar que isso promove o interesse público”, acrescentou o Veep. “Na sequência daquela apresentação feita há meses, tenho o orgulho de anunciar três novos requisitos vinculativos para promover o uso seguro, protegido e responsável da IA ​​por nosso governo federal.”

Com base em iniciativas políticas recentes e na abrangente Ordem Executiva 14110 emitida em outubro, o memorando enviado esta manhã aos “chefes de departamentos e agências executivas” pela chefe do OMB, Shalanda Young, destaca o Fortalecimento da Governança da IA, o Avanço da Inovação Responsável da IA ​​e o Gerenciamento de Riscos do uso de IA (leia o memorando de orientação de IA emitido hoje pelo Diretor do OMB aqui).

Para diminuir o risco de desencadear Matriz ou futuros da Skynet, os parâmetros específicos das propostas do OMB que o VP está apresentando são:

Fortalecimento da Governança da IA. A gestão do risco da IA ​​e a promoção da inovação na IA requerem uma governação eficaz da IA. Conforme exigido pela Ordem Executiva 14110, cada agência deve designar um Diretor de IA (CAIO) no prazo de 60 dias a partir da data de emissão deste memorando. Este memorando descreve as funções, responsabilidades, antiguidade, posição e estruturas de relatórios para CAIOs de agências, incluindo relatórios expandidos por meio de inventários de casos de uso de IA de agências. Como a IA está profundamente interligada com outras áreas técnicas e políticas, incluindo dados, tecnologia da informação (TI), segurança, privacidade, direitos civis e liberdades civis, experiência do cliente e gestão da força de trabalho, os CAIOs devem trabalhar em estreita coordenação com os funcionários e organizações responsáveis ​​existentes dentro suas agências.

Promovendo a inovação responsável em IA. Com as salvaguardas adequadas implementadas, a IA pode ser uma ferramenta útil para modernizar as operações das agências e melhorar o serviço do Governo Federal ao público. Para esse efeito, as agências devem aumentar a sua capacidade de adotar de forma responsável a IA, incluindo a IA generativa, e tomar medidas para permitir a partilha e reutilização de modelos, códigos e dados de IA. Este memorando exige que cada agência identificada na Lei dos Diretores Financeiros (Lei CFO)4 desenvolva uma estratégia empresarial sobre como promoverão o uso responsável da IA. Este memorando também fornece recomendações sobre como as agências devem reduzir as barreiras ao uso responsável da IA, incluindo barreiras relacionadas com a infraestrutura de TI, dados, segurança cibernética, força de trabalho e os desafios específicos da IA ​​generativa.

Gerenciando riscos do uso de IA. Embora as agências obtenham benefícios significativos com a IA, também devem gerir uma série de riscos decorrentes da utilização da IA. As agências estão sujeitas aos requisitos de gestão de risco existentes relevantes para a IA, e este memorando não substitui nem substitui esses requisitos. Em vez disso, estabelece novos requisitos e recomendações que, tanto de forma independente como colectiva, abordam os riscos específicos de depender da IA ​​para informar ou executar decisões e acções das agências, especialmente quando essa confiança afecta os direitos e a segurança do público. Para enfrentar estes riscos, este memorando exige que as agências sigam práticas mínimas ao utilizar IA com impacto na segurança e IA com impacto nos direitos, e enumera categorias específicas de IA que se presume terem impacto nos direitos e na segurança. Finalmente, este memorando também estabelece uma série de recomendações para a gestão dos riscos de IA no contexto das compras federais.

“O chefe de cada agência abrangida deve também considerar os recursos financeiros, humanos, de informação e de infraestrutura necessários para a implementação, priorizando os recursos atuais ou solicitando recursos adicionais através do processo orçamentário, conforme necessário para apoiar as responsabilidades identificadas neste memorando”, diz o Memorando da OMD, data de 29 de março de 2024. “Os CAIOs são os principais responsáveis, em nome do chefe da sua agência, pela implementação deste memorando e pela coordenação da implementação com outras agências.”

“O presidente Biden e eu pretendemos que essas políticas internas sirvam de modelo para a ação global”, afirmou o vice-presidente Harris quando a implementação da política começou no início desta manhã. A audiência internacional pode ser o objectivo a longo prazo, mas a administração concentrou-se no ano passado na IA na América.

Imagens Getty

Em outubro, a Ordem Executiva 14110 assinada por Biden tinha entre seus objetivos que empresas de IA, como os proprietários do ChatGPT, OpenAI LP e a organização sem fins lucrativos OpenAI Inc ou Alphabet, compartilhassem os resultados de seus testes de segurança com o governo dos EUA. A Ordem Executiva 14110 não exigia que as empresas de IA identificassem conteúdo gerado por IA, mas ordenava ao Departamento de Comércio que desenvolvesse padrões de autenticação e marcas d’água. Embora a aplicação permaneça vaga, a ordem de Biden também declarou que o governo federal desenvolveria melhores práticas para empresas de todos os matizes para “mitigar os danos e maximizar os benefícios” da IA.

Não é coincidência que uma administração tão favorável aos trabalhadores adoptasse tal postura.

A IA foi um grande obstáculo nas negociações WGA e SAG-AFTRA e nos ataques contra os estúdios no ano passado – disputas às quais Biden concordou, à distância. A IA também é um fator importante nas atuais negociações entre a AMPTP e a IATSE e os Teamsters. Ao mesmo tempo, os estúdios já utilizam IA em telas pequenas e grandes. Desde o início do ano, várias empresas de IA realizaram reuniões com estúdios ou streamers para incorporar ainda mais a tecnologia em filmes e séries de TV, dizem as fontes.

Tudo isso está acontecendo a portas fechadas em Tinseltown, mas a iniciativa de hoje em DC pretende deixar a luz do sol entrar – pelo menos nos círculos burocráticos

“Cada agência (exceto o Departamento de Defesa e a Comunidade de Inteligência) deve inventariar individualmente cada um dos seus casos de uso de IA pelo menos anualmente, enviar o inventário ao OMB e publicar uma versão pública no site da agência”, observa o memorando de Young. “Abraçar a inovação requer a remoção de barreiras desnecessárias e inúteis ao uso da IA, mantendo e fortalecendo as barreiras que garantem o seu uso responsável”, diz a correspondência.

Embora não seja exatamente a Declaração de Direitos da IA, que se especula há algum tempo como vindo da administração, e até certo ponto um curinga eleitoral, a nova política de autodenominadas “salvaguardas concretas” pretende ser implementada em todos os países. grande parte do governo federal até 1 de Dezembro. Sim, o memorando vindo de Washington DC reconhece que algumas agências ou grupos poderão receber uma prorrogação única de um ano se “não conseguirem cumprir de forma viável os requisitos mínimos”. Ainda assim, para chegar mais perto do maior número possível de agências, atingindo a meta de 1º de dezembro, o governo planeja contratar pelo menos 100 profissionais de IA até este verão.

Por mais práticos ou não que esses objetivos possam ser no mundo em rápida mudança da IA ​​e num ano eleitoral, a Vice-Presidente está de olho no panorama geral – e não estamos a falar de 2028.

“Acredito que todos os líderes do governo, da sociedade civil e do setor privado têm o dever moral, ético e social de garantir que a inteligência artificial seja adotada e avançada de uma forma que proteja o público de danos potenciais, garantindo ao mesmo tempo que todos sejam capazes de aproveite todos os seus benefícios”, disse Harris na quarta-feira

Fuente