Sistema da OpenAI cria vídeos ultrarrealistas a partir de comando de texto e deve esquentar embates sobre direitos autorais. Primeiras criações têm falhas

Com a criação de vídeos ultrarrealistas a partir de comandos simples de texto, o novo sistema de inteligência artificial da OpenAI, o Sora, aumenta a preocupação sobre a disseminação de deepfakes, e deve esquentar os embates que envolvem direitos autorais para conteúdos gerados por IA. Ainda restam dúvidas, no entanto, sobre até onde o sistema pode criar vídeos que simulam com qualidade a realidade, avaliam especialistas ouvidos pelo GLOBO.

Assim como aconteceu com antecessor ChatGPT, robô da OpenAI que cria textos, o Sora foi apresentado pela empresa com o alerta de que se trata de um sistema ainda com diversas limitações.

“(O modelo) pode ter dificuldade em simular com precisão a física de uma cena complexa e pode não compreender instâncias específicas de causa e efeito. Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas depois o biscoito pode não ter marca de mordida”, informou a OpenAI, no texto sobre a ferramenta.

Os primeiros vídeos criados pelo novo robô da OpenAI, divulgados na quinta-feira, impressionam pela capacidade de simular de forma ultrarrealista pessoas, cenários e objetos, em tomadas de vídeo com grau de complexidade maior que de ferramentas concorrentes, como o Midjourney e o Stable Diffusion.

— O que eles não falam é que, possivelmente, os vídeos apresentados são alguns dentre milhares que foram feitos até chegar a um resultado apresentável. O processo de criação não é tão simples quanto parece. Às vezes é preciso criar mil imagens para obter uma muito boa — pondera Fabro Steibel, diretor executivo do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio).

Por enquanto, apenas um grupo restrito de pesquisadores e artistas pode acessar o novo sistema da OpenAI, capaz de gerar vídeos de até um minuto, de aspecto realista ou de animação. A companhia não informou quando o Sora será liberado para todos os usuários, nem se ele será gratuito ou pago.

Sistema lançado com falhas

Entre os avanços obtidos, em comparação com sistemas concorrentes, a empresa destaca a capacidade do Sora em criar cenas complexas com vários personagens, a possibilidade de gerar movimentos e detalhes específicos nos cenários, além de entender não só o que o usuário pediu no comando, mas também “como essas coisas existem no mundo físico”.

A própria empresa, no entanto, admite as fragilidades da ferramenta. Nesta sexta-feira, a OpenAI divulgou uma série de vídeos que escancaram as limitações do Sora ao criar cenas que não fazem sentido, como uma cadeira amolecida que voa no deserto, e também sequências inusitadas, como uma bola de basquete que explode antes de passar pela cesta.


Bola de basquete que explode no ar

Essa não é a primeira vez que a OpenAI lança ou apresenta um sistema com falhas sabidas - o mesmo aconteceu com o Dall-E e, depois, com o ChatGPT, conhecido pelas “alucinações”, ou seja, criação de conteúdos desconectados da realidade ou completamente fora do pedido pelo usuário.

Risco ampliado para deepfakes

Francisco Brito Cruz, diretor executivo do InternetLab, avalia que a criação do sistema faz parte de mais um dos saltos que a OpenAI e outras gigantes de tecnologia vem dando para potencializar seus sistemas, em um processo de aperfeiçoamento contínuo, inclusive com novas funcionalidades. Ele lembra que, com essas evoluções, os riscos envolvidos na IA também escalam:

— A gente já sabia que as capacidades desses sistemas iriam aumentar e que o GPT-3 e GPT-4 (modelos por trás do ChatGPT) eram o começo de uma curva de aprimoramento. Sendo parte do processo, os riscos que tínhamos nas gerações anteriores da IA se repetem ou se acentuam. As discussões sobre criação de conteúdo falso ou violento, e os riscos de criar conteúdo com material protegido por direito autoral voltam a aparecer.

Segundo a OpenAI, o Sora terá as mesmas proteções de outras sistemas da companhia, que envolvem barreiras para criação de conteúdos violentos ou de cunho sexual, além de restrições para geração de vídeos que tenham celebridades.

A empresa também informou que irá incluir uma espécie de marca criptografada ao conteúdo do Sora, para indicar que ele foi gerado por IA.

Steibel diz que muito provavelmente os marcadores “não resolverão o problema” das imagens falsas ou deepfakes, porque “possivelmente vão encontrar formas de retirá-las ou falsificá-las, como várias das proteções que já vimos surgir em tecnologias”.

Brito Cruz acrescenta que a aceleração desses sistemas de mídia sintética, sejam vídeos ou áudios, torna mais urgente o desenvolvimento paralelo de ferramentas de identificação de conteúdos gerados por IA. Ele lembra ainda que, além dos sistemas da OpenAI em si, há preocupação sobre como ferramentas paralelas poderão se desenvolver sem os mesmos filtros de segurança.

— Esse lançamento mostra que vai ser cada vez mais fácil produzir deepfakes. A gente precisa discutir também o quanto essa tecnologia, nesse nível de performance, vai chegar para outros agentes. E aí precisamos entender, do ponto de vista legislativo, como ter parâmetros antes que isso aconteça.

Direitos autorais mais questionados

Ao serem criados em um ambiente sem regulação, esses sistemas de IA vêm sendo lançados pelas big techs com promessas de que as próprias empresas tratarão de criar camadas de segurança para minimizar seus danos. Na sexta-feira, as gigantes de tecnologia, incluindo OpenAI, Microsoft e Google, firmaram o compromisso para barrar o possível abuso de IA em contextos eleitorais.

Cristiane Manzueto, sócia da área de Proteção de Dados e Propriedade Intelectual do escritório Tauil & Chequer Advogados, associado ao Mayer Brown, lembra que o vácuo legislativo gera dúvidas sobre a conformidade, inclusive na forma como ferramentas como o Sora foram criadas.

— As imagens usadas para treinar (o sistema) tinham algum direito autoral? Essa é uma questão. Outra é como fica a titularidade, do ponto de vista de propriedade intelectual, do resultado gerado pela inteligência artificial — afirma a advogada.

No caso do ChatGPT, por exemplo, a OpenAI passou a enfrentar questionamentos na Justiça sobre uso de conteúdo não autorizado para treinar o robô - processo movido, por exemplo, pelo The New York Times. A OpenAI não informou exatamente quais fontes foram usadas para treinar o Sora e para criar sua base de dados. Para Manzueto, a questão do direito autoral deve gerar mais controvérsias à medida que esses sistemas avançam.


Fonte: O GLOBO