Modelo de Negócio e Implicações Éticas
MANAUS (AM) – O Instituto Brasileiro de Defesa do Consumidor (Idec) fez um apelo ao governo brasileiro para que suspenda as atividades do Grok, uma inteligência artificial desenvolvida pela xAI, empresa do bilionário Elon Musk. Essa solicitação surge em resposta a denúncias recentes sobre a geração de imagens sexualizadas de mulheres e crianças na plataforma X, antiga Twitter. O episódio reacendeu discussões sobre os limites da autorregulação das plataformas digitais e a capacidade do Estado em responder a riscos relacionados à inteligência artificial generativa.
A pesquisadora Andressa Miechelotti, da Universidade Federal de Minas Gerais (UFMG), assevera que o problema transcende falhas técnicas e revela escolhas estruturais dentro do modelo de negócio da plataforma. Para ela, o funcionamento do Grok reflete uma estratégia consciente da empresa em criar um ambiente propício à disseminação de conteúdos polêmicos.
“O Grok foi projetado para operar dessa forma”, comentou Miechelotti. Ela enfatizou que, apesar das limitações inerentes à tecnologia de inteligência artificial generativa, há uma intencionalidade clara por trás das ações do Grok. “Não se trata apenas de falhas isoladas, mas de um propósito premeditado”, destacou.
Disseminação de Conteúdos Controversos
A especialista acredita que tanto a plataforma X quanto o Grok têm como objetivo se diferenciar de outros concorrentes por meio da propagação de conteúdos controversos e polarizadores. “Este modelo de negócios visa deliberadamente espalhar esse tipo de conteúdo para atrair mais usuários, conquistar mercado e se destacar da concorrência”, afirmou Miechelotti. Para ela, essa postura reflete diretamente as decisões estratégicas de Elon Musk à frente da plataforma. “Este é o produto que Musk idealizou e que ele quer que seja assim”, complementou.
A Resposta das Plataformas a Crises
A forma como as plataformas digitais reagem a crises que envolvem violações de direitos pode variar significativamente, dependendo de fatores econômicos, políticos e institucionais. Miechelotti ressaltou que cada plataforma responde às crises de forma idiossincrática. “As reações são moldadas pelo tipo de violação, pela jurisdição e pela pressão pública”, explicou.
No caso do X, a pesquisadora notou um comportamento distinto em comparação a outras grandes empresas de tecnologia. “Após Musk assumir o Twitter e transformá-lo em X, houve uma mudança na postura em relação ao tratamento de crises”, afirmou. Segundo Miechelotti, a nova administração tem ignorado solicitações judiciais e minimizado as demandas da imprensa. “A empresa frequentemente respondia a jornalistas com emojis, desconsiderando as solicitações”, relatou.
O Papel do Lobby na Regulação da IA
O evento envolvendo o Grok se desenrola em um momento crítico, em que se discute a regulação da inteligência artificial no Brasil. Miechelotti acredita que o desfecho ainda está em aberto. “Ainda estamos debatendo o assunto”, indicou. De acordo com a pesquisadora, há um embate entre modelos de governança que priorizam a proteção de direitos e aqueles que estão mais alinhados aos interesses das plataformas digitais.
Ela também alertou sobre a influência do lobby das empresas de tecnologia nas propostas legislativas. “O lobby das plataformas terá impacto significativo quando as proposições não atenderem aos interesses delas”, afirmou. A análise indica que as Big Techs tendem a se afastar quando as regras favorecem suas operações. “As plataformas geralmente não interagem quando a regulação é benéfica para seus negócios”, acrescentou.
Autoridade Nacional de Proteção de Dados e o Grok
Em paralelo a tudo isso, a Autoridade Nacional de Proteção de Dados (ANPD) anunciou que convocará representantes do X para discutir as recentes mudanças nos termos de uso da plataforma. A preocupação gira em torno do uso de dados e publicações dos usuários para treinar o Grok, o que pode criar riscos à privacidade e à proteção das informações dos usuários, conforme estipulado pela Lei Geral de Proteção de Dados (LGPD). A ANPD informou que iniciou uma investigação sobre o cumprimento das regulamentações desde julho e poderá implementar medidas adicionais se identificar riscos significativos para os usuários.
