OpenAI e Anthropic assinam acordos com o governo dos EUA para avaliar e testar modelos de IA. Descubra o impacto desses acordos e os próximos passos.
Acordos de IA Entre OpenAI e Anthropic com o Governo dos EUA
OpenAI e Anthropic, duas startups de inteligência artificial (IA) de destaque, assinaram acordos com o governo dos Estados Unidos para pesquisa, testes e avaliação de seus modelos de IA. Estes são os primeiros acordos desse tipo e marcam um momento significativo na regulamentação da tecnologia de IA.
Colaboração para Avaliação de Modelos de IA
Os acordos permitirão que o Instituto de Segurança de IA dos EUA tenha acesso aos principais modelos desenvolvidos pela OpenAI e pela Anthropic, tanto antes quanto após seu lançamento público. O Instituto, que faz parte do Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio dos EUA, irá colaborar com as empresas para avaliar as capacidades dos modelos e os riscos associados a eles.
Jack Clark, cofundador e chefe de política da Anthropic, destacou a importância desses acordos, afirmando: “IA segura e confiável é crucial para o impacto positivo da tecnologia. Nossa colaboração com o US AI Safety Institute alavanca sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada.”
Impacto dos Acordos na Regulação da IA
Esses acordos acontecem em um contexto de crescente escrutínio regulatório sobre o uso seguro e ético da IA. Em paralelo, os parlamentares da Califórnia estão se preparando para votar em um projeto de lei que regulamentará amplamente o desenvolvimento e a implantação de IA no estado.
Jason Kwon, diretor de estratégia da OpenAI, enfatizou a importância desses acordos para a liderança dos EUA no desenvolvimento responsável da IA: “Acreditamos que o instituto tem um papel fundamental a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial.”
Próximos Passos e Colaborações Futuras
Elizabeth Kelly, diretora do Instituto de Segurança de IA dos EUA, considerou os acordos um marco importante. Ela afirmou: “Esses acordos são apenas o começo, mas são um marco importante à medida que trabalhamos para ajudar a administrar de forma responsável o futuro da IA.”
Além disso, o Instituto colaborará com o UK AI Safety Institute e fornecerá feedback às empresas sobre possíveis melhorias de segurança. Esta colaboração internacional é uma extensão dos esforços dos EUA para enfrentar riscos emergentes associados aos modelos de IA.
Os acordos entre OpenAI, Anthropic e o governo dos EUA representam um avanço significativo na regulamentação e na avaliação de modelos de IA. Com o Instituto de Segurança de IA desempenhando um papel crucial, esses acordos prometem uma abordagem mais rigorosa e colaborativa para garantir o uso seguro e ético da tecnologia de IA.