O grupo G7 concordou em assinar um código de conduta sobre o uso de inteligência artificial (IA) para empresas, ato que será feito na segunda-feira (30/10). O grupo é composto por Estados Unidos, Japão, Alemanha, Reino Unido, França, Itália e Canadá.
Esse acordo foi criado, segundo a Reuters, para estabelecer limites para a utilização da IA nos importantes países em relação à política mundial. Este documento teve início em maio com o G7 em conjunto com a União Europeia no fórum ministerial conhecido como “Hiroshima AI process” e aborda questões como segurança e privacidade.
O documento tem 11 tópicos e conforme sua descrição, “visa promover uma IA segura e confiável em todo o mundo e fornecerá orientação voluntária para ações de organizações que desenvolvem os sistemas de IA mais avançados, incluindo os modelos básicos mais avançados e sistemas de IA generativos”. “Destina-se a ajudar a aproveitar os benefícios e a enfrentar os riscos e desafios trazidos por estas tecnologias”.
Esses tópicos solicitam que as empresas fiscalizem o desenvolvimento e manutenção da IA. Isso deve ser feito para que os riscos oriundos do desenvolvimento e utilização de plataformas que usam suas tecnologias sejam mitigados. Além disso, o código de conduta orienta a abordagem de situações onde o uso indevido de produtos com IA que já estejam no mercado.
Após a assinatura do código de conduta, as empresas dos países envolvidos deverão publicar relatórios recorrentes sobre a utilização indevida, limitações e potencial de suas plataformas que utilizem IA. Além de investir constantemente em controles de segurança eficientes.
Sou apaixonado pela tecnologia e acompanho de perto as grandes transformações dos computadores, smartphones e demais aparelhos inteligentes. Por isso, estou sempre atrás das novidades na área, especialmente sobre produtos. Aqui no TeorTech, uni essa paixão com meu gosto por escrever, também alimentado pelos quase 15 anos de experiência em criação de sites, para ajudar os visitantes na descoberta tecnológica.
Contato pessoal: