Superhuman (ex-Grammarly) desativa IA 'Expert Review' após polémica ética
A Grammarly, agora Superhuman, enfrentou forte controvérsia com a sua funcionalidade 'Expert Review', que gerava sugestões de escrita por IA usando nomes de especialistas sem permissão. A polémica levou ao rápido desativamento da funcionalidade e a um pedido de desculpas público. Este caso destaca os desafios éticos e regulatórios da inteligência artificial na atribuição de autoria e uso de imagem.
A Grammarly, conhecida pela sua extensão de navegador para aperfeiçoamento de textos, esteve recentemente no centro de uma significativa controvérsia que culminou na desativação da sua funcionalidade "Expert Review". Em outubro de 2025, a empresa anunciou a sua rebrand para Superhuman, após a aquisição da Superhuman Mail, assinalando uma clara aposta na inteligência artificial. Contudo, meses antes, em agosto de 2025, foi lançada discretamente a "Expert Review", uma ferramenta que gerava sugestões de escrita por IA, atribuindo-as a "especialistas" cujos nomes eram exibidos sem o seu consentimento. A indignação generalizada, impulsionada por reportagens que revelaram a utilização indevida de nomes de figuras públicas e profissionais, forçou a Superhuman a desativar a funcionalidade em março de 2026.
A Controvérsia da Atribuição de Especialistas por IA
A "Expert Review" prometia oferecer aos utilizadores "insights de profissionais, autores e especialistas líderes", como descrito numa página de ajuda entretanto removida. Ao selecionar o botão da funcionalidade, o sistema gerava sugestões "inspiradas por" especialistas relevantes, exibindo os seus nomes acompanhados de um ícone de "verificado", cujo significado permaneceu ambíguo. Capturas de ecrã da página de ajuda da funcionalidade mostravam nomes como Stephen King, Neil deGrasse Tyson e Carl Sagan. No entanto, um aviso subtil no painel lateral indicava que as referências aos especialistas "não indicam qualquer afiliação com a Grammarly ou endosso por parte dessas pessoas ou entidades".
A funcionalidade permaneceu em grande parte despercebida até 4 de março de 2026, quando a Wired reportou que a "Expert Review" estava a usar nomes de professores já falecidos para fornecer feedback de escrita. Subsequentemente, jornalistas do The Verge testaram a ferramenta, inserindo rascunhos de artigos e descobrindo os nomes dos seus próprios colegas, como Nilay Patel, David Pierce e Tom Warren, associados a sugestões geradas por IA, sem permissão. As sugestões, além de não autorizadas, eram frequentemente vagas ou imprecisas; por exemplo, um conselho de título "inspirado" em Nilay Patel era uma "salada de palavras" genérica que apelava a "urgência" e "intriga".
Precisa de Ajuda com a Sua Presença Digital?
Oferecemos Web Design, E-commerce, Automação e Consultoria para negócios em Portugal. Qualidade premium, preços justos.
Questionada sobre a notificação dos "inspiradores" da funcionalidade, Alex Gay, vice-presidente de produto e marketing corporativo da Superhuman, defendeu que "os especialistas na Expert Review aparecem porque os seus trabalhos publicados estão publicamente disponíveis e são amplamente citados". Contudo, os testes revelaram que os links de "fonte" associados às sugestões estavam frequentemente quebrados ou redirecionavam para artigos não relacionados, minando a credibilidade das atribuições. Perante a crescente pressão, a Superhuman criou uma caixa de correio para especialistas optarem por sair, antes de anunciar o encerramento total da funcionalidade. Ailian Gan, diretora de gestão de produto da Superhuman, reconheceu a necessidade de "reimaginar a funcionalidade" para dar aos especialistas "controlo real sobre como querem ser representados — ou não representados de todo", e o CEO Shishir Mehrotra desculpou-se publicamente, admitindo que a funcionalidade "representava mal as suas vozes" e era um "mau recurso" com "muito pouca utilização".
O Crivo da Legislação Europeia sobre IA e Direitos de Personalidade
A controvérsia em torno da "Expert Review" da Superhuman serve como um estudo de caso pertinente para a Europa, especialmente no contexto das robustas estruturas regulatórias da União Europeia. A utilização de nomes e a implicação de endosso por parte de indivíduos sem o seu consentimento explícito levanta sérias questões em relação ao Regulamento Geral sobre a Proteção de Dados (RGPD). O RGPD estipula que o processamento de dados pessoais, que incluiria nomes e a inferência de competência profissional, requer uma base legal clara, sendo o consentimento uma das mais importantes. A ausência de consentimento prévio e a forma como a "Expert Review" operava seriam provavelmente consideradas uma violação dos direitos de privacidade e de controlo sobre a própria imagem.
Mantenha-se Atualizado
Receba as últimas notícias tech diretamente no seu email. Sem spam, apenas conteúdo relevante.
Além disso, a recente aprovação da Lei da IA da UE (EU AI Act) reforça a necessidade de transparência e responsabilidade nos sistemas de inteligência artificial. Ferramentas que geram conteúdo ou sugestões sob o pretexto de autoridade humana, sem uma base factual ou consentimento explícito, poderiam ser vistas como enganosas ou "de alto risco" sob esta legislação. A Lei da IA exige que os utilizadores sejam informados quando interagem com um sistema de IA e que os sistemas de IA geradores de texto sejam concebidos para evitar a geração de conteúdo ilegal, que inclui violação de direitos autorais e de personalidade. A Superhuman enfrentou um processo de ação coletiva nos EUA; na União Europeia, tais ações seriam ainda mais complexas e rigorosas, dada a proteção mais ampla dos direitos individuais. A expectativa na Europa é clara: as empresas de IA devem priorizar a ética, a transparência e o consentimento.
Reflexos da Polémica no Cenário Tecnológico Português
Para os consumidores e profissionais em Portugal, as ramificações da saga "Expert Review" são diretamente relevantes, dada a plena aplicação das leis e regulamentos da União Europeia no país. A utilização indevida de nomes e a associação de trabalho gerado por IA a indivíduos sem o seu consentimento seria um problema legal e ético significativo em Portugal. Escritores, jornalistas, académicos e outros profissionais portugueses teriam os seus direitos de personalidade e privacidade protegidos pelo RGPD, que impõe requisitos rigorosos para o processamento de dados pessoais e, consequentemente, para o uso da imagem e nome de uma pessoa.
Na verdade, a expectativa no mercado português, alinhada com os princípios europeus, é que as ferramentas de inteligência artificial operem com total transparência e respeitem os direitos dos indivíduos. Qualquer empresa que oferecesse uma funcionalidade semelhante em Portugal teria de assegurar um mecanismo robusto para obter consentimento explícito e gerir a representação dos especialistas, evitando a ambiguidade e as falsas atribuições que marcaram a "Expert Review". A experiência da Superhuman serve como um aviso para o ecossistema tecnológico português e europeu, reforçando a importância de um desenvolvimento de IA focado na ética e no respeito pelos direitos fundamentais dos cidadãos.
Tem um Projeto em Mente?
Transformamos ideias em realidade digital. Fale connosco e descubra como podemos ajudar o seu negócio a crescer online.
Resposta garantida em 24 horas • Orçamento sem compromisso
