Os usuários da inteligência artificial Dall-E 2, que pode gerar imagens de alta qualidade a partir de um texto, agora poderão colocar rostos de pessoas reais nas imagens geradas.
Quando a versão beta da Dall-E 2 foi lançada, havia uma regra que a impedia de gerar rostos semelhantes aos de pessoas reais; mais tarde, essa regra foi relaxada, permitindo a geração de rostos realistas, mas não de indivíduos específicos.
Agora, parece que houve um "liberou geral": os usuários poderão fazer upload de fotos que retratam pessoas reais, bem como usar outros aplicativos da OpenAI, empresa criadora da Dall-E 2, no processo de criação de novas imagens.
A OpenAI disse que esse upload só poderá ser feito com o consentimento das pessoas, que evidentemente não será solicitado na maioria dos casos. Provavelmente será gerada uma grande onda de deepfakes, com imagens falsas, mas realistas, mostrando pessoas em situações constrangedoras; essas imagens poderão ser usadas para ataques a reputações, extorsões etc.
De uma forma cínica, a OpenAI explicou sua lógica para suavizar as regras, dizendo que aprimorou a tecnologia que usa para impedir que seus usuários gerem conteúdo de natureza sexual ou que incite à violência. Disse também que muitos usuários gostariam de usar Dall-E para editar os fundos de fotos de família e verificar como ficariam com determinadas roupas ou cortes de cabelo, além de mencionar outros usos absolutamente inocentes, que evidentemente não são relevantes.
Em realidade, mandando a ética às favas, a OpenAI, sediada em San Francisco, está reagindo à pressão da concorrência, particularmente a Stability.AI, com sede em Londres, cujo gerador de imagens Stable Diffusion foi lançado sem moderação ou restrições.
Deixando clara a ausência de preocupação dessas empresas com os problemas que seus produtos podem trazer à sociedade, o CEO e fundador da Stability.AI, Emad Mostaque, disse ao portal The Verge que é responsabilidade das pessoas que utilizam seus produtos agir de forma ética, moral e legal…
Infelizmente, é mais um caso de inteligência artificial sendo utilizada para o mal.
Vivaldo José Breternitz, Doutor em Ciências pela Universidade de São Paulo, é professor, consultor e diretor do Fórum Brasileiro de Internet das Coisas.