Videos, áudios e imagens geradas por IA serão marcados como “Feito com IA” com base em sinais detectados, devido ao risco de conteúdo manipulado.
De acordo com informações divulgadas no dia 5 de abril de 2024, a Meta revelou que irá implementar medidas para identificar conteúdos criados por IA em suas plataformas online. A empresa pretende adotar uma abordagem proativa ao marcar publicações de áudio, imagens e vídeos produzidas por inteligência artificial para oferecer mais transparência aos usuários.
A iniciativa da Meta em relação à detecção de conteúdos gerados por IA reflete a crescente importância de se compreender a origem e a autoria das informações compartilhadas nas redes sociais. Com a implementação dessas novas diretrizes, a empresa demonstra seu compromisso com a segurança e a autenticidade dos conteúdos veiculados em suas plataformas, contribuindo para um ambiente online mais confiável e transparente.
Meta lança nova política de identificação de conteúdo gerado por IA
A Meta anunciou uma nova política para marcar vídeos, áudios e imagens produzidos por Inteligência Artificial com o rótulo ‘Feito com IA’. Em dezembro de 2023, a empresa havia introduzido a ferramenta Meta IA, capaz de identificar imagens fotorrealistas geradas por robôs.
E, recentemente, a companhia divulgou que estenderá essa identificação para conteúdos criados com ferramentas de outras empresas, como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock. A identificação ‘Feito com IA’ passará a ser exibida em todos os tipos de arquivos produzidos por Inteligência Artificial.
Gama mais ampla de conteúdo será abrangida
De acordo com Monika, os novos rótulos serão baseados na detecção de sinais de imagens de IA compartilhados pela indústria ou por usuários que indicam que o conteúdo foi gerado por IA. A decisão de implementar esses rótulos veio após consulta ao Conselho de Supervisão da Meta.
Além disso, os rótulos também cobrirão uma gama mais ampla de conteúdo, incluindo imagens, vídeos e áudios com risco particularmente elevado de enganar o público. A Meta optou por adicionar rótulos informativos e contexto a esse tipo de conteúdo, em vez de removê-lo de suas plataformas.
Fortalecimento das políticas contra desinformação e manipulação
Monika ressaltou que, em casos onde imagens, vídeos ou áudios gerados ou alterados por IA violem as políticas da empresa, a Meta tomará medidas, como adicionar rótulos mais proeminentes. A companhia também conta com aproximadamente cem verificadores de fatos independentes para revisar conteúdos falsos gerados por IA em suas redes sociais.
A empresa tem buscado formas de combater a desinformação, como exigir que os anunciantes revelem quando criam ou alteram digitalmente um anúncio sobre questões políticas ou sociais. Outras grandes empresas de tecnologia, como Google e Microsoft, também têm desenvolvido ferramentas semelhantes nesse sentido.
Fonte: @ Meio&Mensagem
Comentários sobre este artigo