Deepfakes Sexuais do Grok Quase Levaram à Proibição na App Store da Apple
A Apple ameaçou remover o Grok de Elon Musk da sua App Store devido à proliferação de deepfakes sexuais não consensuais. Apesar de uma intervenção nos bastidores, a moderação de conteúdo da aplicação continua a ser um desafio. Este incidente realça a importância das políticas de conteúdo e a responsabilidade das plataformas digitais.
A Apple, em janeiro, ameaçou discretamente remover a aplicação de inteligência artificial de Elon Musk, Grok, da sua App Store, devido à falha desta em conter a proliferação de deepfakes sexuais não consensuais que inundavam a plataforma X. Esta foi uma demonstração de força silenciosa por parte de um dos mais poderosos guardiões tecnológicos, orquestrada nos bastidores, mesmo enquanto a crise dos “undressing deepfakes” se desenrolava em pleno palco público, e a crítica à alegada inação da Apple aumentava. Num esforço para garantir a integridade da sua plataforma e a segurança dos seus utilizadores, a gigante tecnológica optou por uma abordagem reservada, mas firme, perante um problema que desafia as fronteiras da ética digital e da moderação de conteúdo. No entanto, a forma como este processo se desenrolou levanta questões sobre a transparência e a eficácia das políticas de moderação das grandes empresas de tecnologia.
Falhas na Moderação de Conteúdo e a Persistência do Problema
Numa carta obtida pela NBC News, a Apple informou os senadores norte-americanos que “contactou as equipas por trás de X e Grok após ter recebido queixas e ter tido conhecimento da cobertura mediática do escândalo”, exigindo que os programadores “criassem um plano para melhorar a moderação de conteúdo”. Na altura, o chatbot Grok, da xAI, estava livremente acessível no X e como aplicação autónoma, com salvaguardas frágeis que permitiam aos utilizadores gerar e partilhar facilmente deepfakes sexualizadas e “despir” imagens de pessoas reais, desproporcionadamente mulheres e, em alguns casos, aparentemente menores. Conforme reportámos na altura, estas eram violações flagrantes e inequívocas das diretrizes da App Store, que a Apple costuma aplicar com mão de ferro. É notório que a Apple, que obtém lucros significativos ao ter aplicações como X e Grok na sua loja digital, não se pronunciou publicamente sobre o assunto ou sobre a sua intervenção nos bastidores. De forma semelhante, a Google, através da sua Google Play Store, também lucra com estas aplicações e não fez comentários públicos sobre a matéria.
Precisa de Ajuda com a Sua Presença Digital?
Oferecemos Web Design, E-commerce, Automação e Consultoria para negócios em Portugal. Qualidade premium, preços justos.
A Apple afirmou ter revisto as alterações propostas para as aplicações X e Grok. Enquanto a empresa concluiu que o X tinha “resolvido substancialmente as suas violações”, o Grok “continuava em incumprimento”. A Apple advertiu o programador de que “seriam necessárias alterações adicionais para remediar a violação, ou a aplicação poderia ser removida da App Store”. Só após mais trocas de informações é que a Apple determinou que o Grok tinha “melhorado substancialmente” e aprovou a sua submissão. Ao longo deste processo de bastidores, o Grok e o X permaneceram disponíveis na App Store, um processo prolongado que pode ajudar a explicar a implementação confusa e descoordenada de mudanças de moderação anunciadas em tempo real. Isso incluiu a limitação do Grok no X a subscritores pagantes e tentativas de impedir o Grok de “despir” mulheres. As nossas investigações revelaram que nenhuma destas medidas foi particularmente eficaz, além de tornar a ferramenta um pouco mais difícil de aceder. Intervenções posteriores, como permitir aos utilizadores do X bloquear o Grok de editar as suas fotos, também são facilmente contornáveis. Apesar da aprovação da Apple e das alegações da xAI de ter reforçado as salvaguardas, o Grok ainda parece ser capaz de gerar deepfakes sexualizadas com relativa facilidade. Fontes de cibersegurança referiram a capacidade de criar imagens explícitas de celebridades e figuras políticas usando a ferramenta, e nós próprios conseguimos produzir imagens semelhantes de adultos consentidos. A NBC também reportou descobertas análogas recentemente.
O Escrutínio Europeu e a Responsabilidade das Plataformas Digitais
A problemática em torno dos deepfakes sexuais e da moderação de conteúdo, como evidenciado pelo caso Grok, transcende as fronteiras geográficas, ressoando fortemente no contexto regulatório europeu. Embora a intervenção da Apple tenha ocorrido nos Estados Unidos, a natureza do problema sublinha a urgência das novas legislações da União Europeia, como a Lei dos Serviços Digitais (DSA) e a vindoura Lei da Inteligência Artificial da UE (EU AI Act). A DSA impõe obrigações rigorosas de moderação de conteúdo às grandes plataformas online, designadas como VLOPs (Very Large Online Platforms) e VLOSEs (Very Large Online Search Engines), exigindo que estas atuem proactivamente contra conteúdos ilegais e prejudiciais, como os deepfakes não consensuais. Paralelamente, a EU AI Act, um quadro regulamentar pioneiro, visa garantir que os sistemas de inteligência artificial sejam seguros, transparentes e éticos, com disposições específicas para lidar com a disseminação de deepfakes, impondo requisitos de transparência e responsabilização. Este incidente com o Grok serve como um lembrete contundente da responsabilidade acrescida que recai sobre os 'gatekeepers' digitais, como a Apple e a Google, definidos pela Lei dos Mercados Digitais (DMA), para assegurar um ecossistema digital seguro e moderado para os cidadãos europeus, protegendo-os de abusos e conteúdos ilícitos gerados por IA.
Mantenha-se Atualizado
Receba as últimas notícias tech diretamente no seu email. Sem spam, apenas conteúdo relevante.
Implicações para os Consumidores Portugueses e a Proteção Europeia
Para os consumidores portugueses, este caso com o Grok e a App Store da Apple destaca a importância crítica das políticas de moderação de conteúdo e da responsabilização das empresas de tecnologia. Embora o incidente tenha tido origem em solo norte-americano, a globalidade das plataformas digitais significa que os desafios de segurança e ética são universais. Se uma aplicação como o Grok fosse amplamente adotada em Portugal, sem salvaguardas eficazes, os utilizadores portugueses estariam expostos aos mesmos riscos de deepfakes não consensuais, com consequências potencialmente devastadoras. Felizmente, o enquadramento regulatório europeu, incluindo o Regulamento Geral sobre a Proteção de Dados (RGPD), a DSA e a futura EU AI Act, oferece uma camada de proteção robusta. Estas leis exigem que as plataformas digitais, operando em Portugal e em toda a UE, implementem medidas de moderação de conteúdo eficazes, protejam os dados pessoais e garantam a transparência e a responsabilidade dos sistemas de IA. Este episódio sublinha a necessidade de os consumidores portugueses estarem informados sobre os riscos associados à IA e de confiarem que as autoridades europeias continuarão a pressionar por padrões mais elevados de segurança e ética no mundo digital.
Tem um Projeto em Mente?
Transformamos ideias em realidade digital. Fale connosco e descubra como podemos ajudar o seu negócio a crescer online.
Resposta garantida em 24 horas • Orçamento sem compromisso
