
Por Emmet Lyons, Emmet Lyons é editora de notícias do CBS News London Bureau, coordenando e produzindo histórias para todas as plataformas da CBS News. Antes de ingressar na CBS News, Emmet trabalhou porquê produtor na CNN por quatro anos. Leia a biohing completa Kiniry 6 de junho de 2025 / 7:46 AM EDT / CBS News Meta removeu vários anúncios que promovem aplicativos “Nudify”-as ferramentas de IA usadas para gerar fagos de profundidade sexualmente explícitos, que são relevantes contra as pessoas reais-depois que uma investigação de notícias da CBS encontrou centenas dessas plataformas. eles e bloquearam permanentemente os URLs associados a esses aplicativos “, disse um porta -voz à CBS News em expedido por e -mail. A CBS News descobriu dezenas desses anúncios na plataforma do Instagram da Meta, em seu recurso “Stories”, promovendo ferramentas de IA que, em muitos casos, anunciavam a capacidade de “fazer upload de uma foto” e “ver alguém nu”. Outros anúncios nas histórias do Instagram promoveram a capacidade de fazer upload e manipular vídeos de pessoas reais. Um proclamação promocional até dizia “Porquê esse filtro é permitido?” porquê texto embaixo de um exemplo de um deepfake nu. Um proclamação promoveu seu resultado de IA usando imagens de Deepfake, altamente sexualizadas e vestidas de roupas íntimas, dos atores Scarlett Johansson e Anne Hathaway. Alguns dos links de URL dos anúncios de anúncios redirecionam para sites que promovem a capacidade de animar as imagens de pessoas reais e levá -las a realizar atos sexuais. E alguns dos aplicativos cobraram usuários entre US $ 20 e US $ 80 para acessar esses recursos “exclusivos” e “avançados”. Em outros casos, os usuários redirecionados de URL de um proclamação para a App Store da Apple, onde os aplicativos “Nudify” estavam disponíveis para download. As meta plataformas porquê o Instagram comercializaram ferramentas de IA que permitem que os usuários criem imagens sexualmente explícitas de pessoas reais. Uma estudo do S na livraria de anúncios da Meta descobriu que, no mínimo, centenas desses anúncios disponíveis nas plataformas de mídia social da empresa, incluindo no Facebook, Instagram, threads, aplicativos do Facebook Messenger e Meta Audience Network – uma plataforma que permite que a Meta anunciantes chegue aos usuários em aplicativos móveis e sites que fazem parceria com a empresa. De contrato com os próprios dados da META da Livraria de AD, muitos desses anúncios foram especificamente direcionados a homens entre 18 e 65 anos e foram ativos nos Estados Unidos, União Europeia e Reino Unificado. Um porta-voz do Meta disse à CBS News que a disseminação desse tipo de teor gerado pela IA é um problema contínuo e eles estão enfrentando desafios cada vez mais sofisticados ao tentar combatê-lo. “As pessoas por trás dessas pipas exploradoras evoluem sempre suas táticas para evitar a detecção, por isso estamos continuamente trabalhando para fortalecer nossa realização”, disse um meta. A CBS News constatou que os anúncios para as ferramentas de DeepFake “Nudify” ainda estavam disponíveis na plataforma do Instagram da empresa, mesmo depois que a Meta os retirou inicialmente. As meta plataformas porquê o Instagram comercializaram ferramentas de IA que permitem que os usuários criem imagens sexualmente explícitas de pessoas reais. DeepFakes são imagens manipuladas, gravações de áudio ou vídeos de pessoas reais que foram alteradas com perceptibilidade sintético para deturpar alguém dizendo ou fazendo alguma coisa que a pessoa não disse ou fez. No mês pretérito, o presidente Trump assinou a lei, o bipartidário “Take It Down Act”, que, entre outras coisas, exige que sites e empresas de mídia social removam o teor da DeepFake dentro de 48 horas em seguida o aviso de uma vítima. Embora a lei torne ilícito “publicar conscientemente” ou ameaçar publicar imagens íntimas sem o consentimento de uma pessoa, incluindo o DeepFakes da AI-Created, ela não tem porquê fim as ferramentas usadas para gerar teor gerado por AI. Essas ferramentas violam as regras de segurança e moderação da plataforma implementadas pela Apple e Meta em suas respectivas plataformas. plataformas. The company says its regulations are intended to block users from sharing or threatening to share nonconsensual intimate imagery.Apple’s guidelines for its app store explicitly state that “content that is offensive, insensitive, upsetting, intended to disgust, in exceptionally poor taste, or just plain creepy” is banned.Alexios Mantzarlis, director of the Security, Trust, and Safety Initiative at Cornell University’s tech research center, has been studying A vaga nas redes de AI Deepfake Marketing em plataformas sociais por mais de um ano. Ele disse à CBS News em uma entrevista por telefone na terça -feira que tinha visto milhares de mais desses anúncios em meta plataformas, muito porquê em plataformas porquê X e Telegram, durante esse período. Embora o Telegram e X tenham o que ele descreveu porquê uma “ilegalidade” estrutural que permite esse tipo de teor, ele acredita que a liderança de Meta não tem vontade de resolver o problema, apesar de ter moderadores de teor. “Acho que as equipes de crédito e segurança nessas empresas se importam. Não acho, francamente, que elas se importam no topo da empresa no caso da Meta”, disse ele. “Eles estão claramente subestimando as equipes que precisam lutar contra essas coisas, porque são tão sofisticadas quanto essas redes (Deepfake) … elas não têm meta numerário para jogar”. Mantzarlis também disse que descobriu em sua pesquisa que os geradores de Deepfake “Nudify” estão disponíveis para download na App Store da Apple e na loja de plays do Google, expressando frustração com a incapacidade massiva de plataformas de infligir esse teor. “O problema com os aplicativos é que eles têm essa frente de dupla use, onde se apresentam na App Store porquê uma maneira divertida de enfrentar a troca, mas portanto estão comercializando a meta porquê seu principal objetivo, sendo a nudificação. Portanto, quando esses aplicativos são lançados para a qual a quinta-feira, o que se refere a um que o SUD, que não é necessário, o que se refere a um que o SUDE, que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que o sitêntico.” Logo todo mundo pode ser porquê ‘Tudo muito, eu não me importo com o que você se apresenta na minha plataforma, você se foi’ ‘”, acrescentou Mantzarlis. A CBS News entrou em contato com a Apple e o Google para comentar sobre porquê eles moderam suas respectivas plataformas. Nenhuma das empresas respondeu no momento da redação. A promoção das principais empresas de tecnologia de tais aplicativos levanta sérias questões sobre o consentimento do usuário e sobre a segurança on -line para menores. Uma estudo da CBS News de um site “Nudify” promovido no Instagram mostrou que o site não provocou nenhuma forma de verificação de idade antes de um usuário enviar uma foto para gerar uma imagem de Deepfake. Tais problemas são generalizados. Em dezembro, os 60 minutos da CBS News relataram a falta de verificação de idade em um dos sites mais populares usando perceptibilidade sintético para gerar fotos nus falsas de pessoas reais. Apesar de os visitantes terem sido informados de que devem ter 18 anos ou mais para usar o site e que “o processamento de menores é impossível”, 60 minutos conseguiu obter imediatamente chegada ao upload de fotos depois que o usuário clicou “concordar” no prompt de aviso de idade, sem outra verificação de idade necessária. Um estudo de março de 2025, realizado pela organização sem fins lucrativos da Protecção das Crianças, mostrou que, entre os adolescentes, 41% disseram ter ouvido falar do termo “cutucada de Deepfake”, enquanto 10% relataram saber pessoalmente alguém que tinha imagens nuas de profundidade criadas. Emmet Lyons Emmet Lyons é editor de recepção do CBS News London Bureau, coordenando e produzindo histórias para todas as plataformas da CBS News. Antes de ingressar na CBS News, Emmet trabalhou porquê produtor na CNN por quatro anos.
https://www.cbsnews.com/news/meta-instagram-facebook-ads-nudify-deepfake-ai-tools-cbs-news-investigation/