Deu Tilt

Podcast sobre tecnologia para os humanos por trás das máquinas.

  1. HACE 5 DÍAS

    Gatonet, pirataria e crimes online: o trabalho invisível do Ciberlab

    Há alguns anos, falar em gatonet era imaginar alguém subindo no poste e puxando um cabo clandestino. Esse tempo acabou. Hoje, a pirataria de conteúdo audiovisual se profissionalizou e é oferecida por verdadeiras organizações empresariais, diz Paulo Benelli, delegado da polícia civil e coordenador do Ciberlab, o Laboratório de Operações Cibernéticas do Ministério da Justiça, em entrevista ao Deu Tilt, podcast do UOL para humanos por trás das máquinas. O gatonet moderno opera via IPTV em aparelhos de TV Box, usa servidores espalhados pelo mundo, usa técnicas sofisticadas para driblar os bloqueios das autoridades e, na hora do pagamento, aceita até parcelar. “Hoje [o gatonet] se estruturou de uma maneira não só tecnológica mas também organizada de modo empresarial para poder fraudar direitos de propriedade intelectual e causar dano ao consumidor (...) Tem uma estrutura para pagamento, tem o setor de atendimento ao cliente que nunca resolve nada, tem os setores para fazer a propaganda dessa TV Box, tanto em mídia pequena, como algumas páginas, como também nas redes sociais", diz o investigador. O combate a esse tipo de crime também precisou se reinventar, diz Benelli. No Brasil, o trabalho vai do rastreamento digital a ações conjuntas com as polícias estaduais, federal e, às vezes, de outros países. Mas o problema não para aí: muitas organizações criminosas atuam no roubo de dados pessoais, difusão de malware e outros crimes digitais.

    53 min
  2. 16/12/2025

    OpenAI é Banco Master da IA?; IA para detectar câncer; Google, o fogo amigo contra Nvidia

    A OpenAI está no meio de uma ciranda bilionária para continuar existindo. No novo episódio de Deu Tilt, o podcast do UOL para humanos por trás das máquinas, Diogo Cortiz e Helton Simões Gomes explicam os números que dimensionam a situação complexa da empresa que é a sensação da inteligência artificial. Segundo estudo do time de tecnologia e semicondutores do HSBC, a dona do ChatGPT ficará sem lucro até 2030 e precisará de US$ 207 bilhões para bancar infraestrutura, data centers, energia, água, profissionais e compromissos assumidos com big techs como Microsoft e Amazon. A receita até cresce, mas isso não significa lucro –principalmente quando cada novo modelo custa ainda mais que os anteriores. O Sora 2, por exemplo, só aumentou o tamanho do rombo. Para o HSBC, há caminhos para a empresa fechar as contas, mas todos tortuosos: dobrar a base de assinantes pagos, entrar pesado na publicidade digital e descobrir formas mais eficientes de usar IA. E a mais complexa delas: para empatar, a OpenAI teria de convencer 44% da população mundial a pagar por seus serviços até 2030, número que nenhuma rede social ou app alcançou até hoje. Se parece absurdo, lembra um pouco o caso do Banco Master: uma montanha de promessas e um buraco ainda maior. Uma startup brasileira criou uma IA capaz de identificar indícios iniciais de câncer de intestino usando apenas um exame de sangue. Em entrevista ao Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, a CTO da Huna Daniella Castro explicou que a pesquisa da Huna começou pelo câncer de mama e avançou para o de intestino –ambos alguns dos mais comuns no Brasil. Daniela ressalta que o desafio para o desenvolvimento da IA da Huna vai além da tecnologia: acessar dados de qualidade é fragmentado e contar com informações interoperáveis. Ela menciona estes pontos, porque o segredo da Huna é justamente o método criado para ensinar seu modelo de IA a encontrar sinais de câncer: primeiro, a equipe analisou resultados de colonoscopias e dividiu os pacientes em dois grupos (pessoas sem rastros de câncer e pessoas com lesões precursoras ou com tumor já instalado); depois, usou a IA para comparar os hemogramas desses dois grupos e identificar padrões de alteração que antecedem o câncer. A executiva explica que a mesma abordagem pode ser usada para rastrear outras doenças complexas, como diabetes e falência renal, um campo enorme que a IA ainda está começando a explorar. A vida da Nvidia não está nada fácil. Primeiro, foi proibida pelos EUA de vender chips para a China. Liberada, viu a China levantar barreiras. Agora, a empresa enfrenta fogo amigo dentro de casa: o Google entrou oficialmente no mercado de chips de inteligência artificial. No novo episódio de Deu Tilt, o podcast para os humanos por trás das máquinas, Diogo Cortiz e Helton Simões Gomes contam como o cenário aponta para uma reviravolta inevitável: o domínio absoluto da Nvidia está sob ameaça.

    54 min
  3. 09/12/2025

    O ‘novo momento DeepSeek’ e o dilema da IA: quem paga para robô ser treinado no Brasil?

    Em entrevista ao Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, Pedro Henrique Ramos, diretor-executivo do Reglab, foi taxativo: o Brasil caminha para ser o mais restritivo do mundo no treinamento de inteligência artificial, o que afetará o PIB do país. Segundo levantamento do think tank especializado em políticas públicas em tecnologia, o país pode perder R$ 21 bilhões se aprovar uma legislação que impeça IAs generativas de serem treinadas com obras protegidas por direitos autorais. O mesmo vale para inferências. Mas existem três caminhos, diz Ramos: liberar amplamente o uso do que está aberto na internet; criar um regime intermediário, com possibilidade de fazer pedidos de retirada de obras; adotar uma linha mais dura, em que nada é usado sem pagamento. Só que a internet é global, e as leis, nacionais, diz. Se o Brasil aprovar uma proposta mais restritiva, empresas podem simplesmente levar seus data centers para outros lugares. Ramos não esconde que a liberação de informações protegidas para treinar IA é algo que beneficia as big tech norte-americanas, como Google e Meta, mas diz que a disputa, no fim das contas, é entre grandes conglomerados empresariais: quem treina modelos de IA versus quem detém direitos autorais. E os produtores de conteúdo podem até se dar bem com a IA, já que, segundo a pesquisa Futuros Criativos, a nova tecnologia pode até reduzir os royalties das indústrias criativas, mas, por outro lado, tende a elevar sua produtividade. Já Luca Schirru, advogado e consultor em direitos autorais, afirma que a regulação do uso de dados para o treinamento da IA depende de como, por quem e para quê eles estão sendo minerados. Há uma diferença entre a utilização de dados para pesquisas ou por instituições públicas e sem fins lucrativos e por grandes empresas de mercado, que geram lucro a partir desses dados ou oferecem obras que podem substituir o trabalho humano. Segundo ele, é possível combinar diferentes caminhos de remuneração pelo uso de dados e conteúdos criativos por grandes empresas, como autorizar certas formas de treinamento e, ao mesmo tempo, cobrar o pagamento apenas das big techs que lucram com a IA generativa. Startups, modelos abertos e projetos de pesquisa poderiam se beneficiar de modelos mais flexíveis. Schirru ressalta que ferramentas como a ProRata.AI já apontam para a possibilidade de identificar quais obras entraram no treinamento, criando uma base para modelos de remuneração mais transparentes. Para equilibrar os interesses, ele sugere mecanismos que vão além do licenciamento tradicional: taxas sobre receita, fundos para autores e veículos de imprensa, ou investimentos em capacitação. O objetivo é garantir sustentabilidade para quem cria, sem travar a inovação. Do nada, a China lançou um app que ultrapassou o Gemini, o ChatGPT e até o DeepSeek em número de acessos. Em uma semana, o Qwen bateu 10 milhões de downloads. Ele é do Alibaba, que os brasileiros conhecem pelo AliExpress, mas que também tem uma das maiores infraestruturas de computação em nuvem do mundo. O Qwen começou como um modelo de IA aberto, usado por empresas que preferem aproveitar uma base em vez de gastar tempo e dinheiro na fase de pré-treinamento da IA. Agora virou chatbot e, com o app, o Alibaba decidiu se apresentar ao consumidor global como uma companhia AI first, no melhor estilo Google. E tem mais: a empresa também lançou o Quark, um assistente pessoal de IA combinado com navegador. A mensagem é clara: o Alibaba não quer só disputar mercado, mas tomar a liderança na corrida tecnológica.

    54 min
  4. 02/12/2025

    Giselle Beiguelman discute: arte com IA é arte? ‘Censura algorítmica’ e obsolescência desprogramada

    Em entrevista a Deu Tilt, a artista visual, professora universitária e pesquisadora Giselle Beiguelman desmonta a ideia de que existe “arte criada pela máquina”. Para ela, o que chamamos de arte com IA é sempre arte com tecnologia, feita com a máquina, e não por ela. A grande novidade, inédita na história da arte, é que a tecnologia agora toma decisões durante o processo criativo. Nenhum artista controla 100% seus instrumentos, mas a IA interfere nos rumos da criação. Quando alguém pergunta se arte com IA “é arte”, Giselle responde olhando para o processo. O prompt não é só descrição; é uma experiência que tensiona os meios de produção. A IA muda o campo artístico ao mesmo tempo em que amplia e ameaça. Copiar ficou fácil, criar continua difícil. No lugar do desvio de padrão, que sempre foi motor da arte, o risco é ficarmos presos numa jaula cibernética onde tudo é retroalimentado pelos mesmos arquivos hegemônicos. Arquivos inexistentes podem ser apontados, mas referências que fogem do padrão podem desaparecer. O repertório coletivo corre o risco de se diluir. Para Giselle, o debate gira em torno da democratização do acesso à arte, mas também em torno de quem controla os meios para criar –afinal, os melhores recursos já são pagos. A cultura do padrão reforça repertórios hegemônicos, e os maiores problemas da IA continuam sendo humanos: a reprodução de nossos vieses e modelos culturais.

    52 min
  5. 25/11/2025

    Veo 3 x Sora 2; IA derruba a produtividade; Grokipedia, a Wikipédia do Musk; As startups da fé

    Veo 3 ou Sora 2? Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, colocou frente a frente as duas ferramentas que estão puxando a nova onda de vídeos hiper-realistas feitos por IA. Aposta do Google, o Veo 3 funciona integrado ao Gemini: você escreve um prompt e recebe um vídeo de até 8 segundos. Já o Sora 2, da OpenAI, parece um rival da Meta: cria vídeos de 10 segundos em uma rede social disponível só nos Estados Unidos e para convidados. O desafio é simples: submeter pedidos diretos, do jeito que as pessoas fariam, sem engenharia de prompt ou detalhes técnicos e ver qual plataforma vai melhor. Além do embate, há uma discussão sobre os riscos dos vídeos realistas. O uso indevido da imagem de figuras públicas em situações vexatórias, ofensivas ou completamente contrárias à sua história já provocou saias justas. O Sora 2 foi usado para criar vídeos racistas de Martin Luther King, removidos só depois de pedidos formais da família. O mesmo ocorreu com o ator Bryan Cranston, o Walter White de “Breaking Bad”. Tudo isso levanta uma pergunta que ninguém na indústria parece disposto a responder: por que a plataforma não pede autorização prévia para usar a imagem dessas pessoas? A IA prometeu tudo em relação ao aumento da produtividade no trabalho, mas a entrega ainda está longe das expectativas. Na corrida para não ficar para trás, muita empresa adota IA movida por FOMO (medo de ficar por fora, na sigla em inglês), não por estratégia. O resultado aparece nos números: 95% dos projetos que adotaram a IA com o objetivo de aumentar a produtividade não trazem o retorno esperado. Helton Simões Gomes e Diogo Cortiz contam como a IA tem matado a produtividade do trabalho, diferente do que se esperava. Um estudo do Stanford Media Lab mostra que o problema tem nome: “work slop”. Sabe quando a pessoa delega para a IA algo que ela mesma deveria fazer, mas a IA entrega um trabalho incompleto, cheio de erros e que precisa ser revisado por outra pessoa? Pois é: “work slop”. Isso derruba a produtividade de equipes inteiras, do gerentes aos subordinados. E os efeitos financeiros são claros: funcionários gastam, em média, duas horas para refazer tarefas mal feitas pela IA. Os custos invisíveis podem chegar a US$ 9 milhões por ano, segundo estimativas de pesquisadores. E aí está o desafio central: como extrair o melhor da IA e dos humanos, sem que um atrapalhe o outro? A birra de Elon Musk com a Wikipedia, apelidada por ele de ‘wokepedia’, levou o magnata a criar sua própria enciclopédia: a Grokipedia. Deu Tilt conta qual a diferença entre as duas: do número de artigos (Wikipédia tem mais de 7 milhões, a Grokipedia tem cerca de 800 mil verbetes, todos produzidos pela própria IA) à produção (na Wikipedia, os textos são escritos e revisados de forma colaborativa por uma comunidade enorme de voluntários, e na Grokipedia não há transparência sobre as fontes). Se Musk queria evitar viés e politização, o resultado foi outro: no verbete sobre o “Black Lives Matter”, por exemplo, o Grok acusa o movimento de defender o fim da família nuclear, o que elevaria a criminalidade nas comunidades negras. A própria organização, em seu site, diz defender diferentes modelos de família, não o fim da estrutura familiar. Há outros problemas na Grokipedia, como fontes majoritariamente dos Estados Unidos,verbetes com vieses racistas, transfóbicos e com teorias conspiratórias. Diante disso, ficam as perguntas: o que pensaria Diderot, um dos criadores da enciclopédia moderna, ao se deparar com a Grokipedia? E mais: por que Musk resolveu investir numa enciclopédia? E outra: se hoje a Wikipedia é fonte crucial para IAs, o que acontece se esses modelos passarem a ser alimentados pelo Grok no futuro?

    52 min
  6. 18/11/2025

    Atlas x Comet; Uber faz motorista treinar IA; O segredo de Veo3 e Sora2; Pegadinhas de IA

    Atlas ou Comet? Quem vence a batalha dos novos navegadores de IA? O Atlas, da OpenAI, é basicamente um navegador turbinado com recursos de inteligência artificial, uma estratégia da dona do ChatGPT para bater de frente com o Google Chrome, que domina mais de 70% do mercado. Já o Comet é uma aposta menor, mas ousada da Perplexity –a companhia chegou a fazer proposta de compra pelo Chrome. Para descobrir qual dos dois browsers se saem melhor, Helton Simões Gomes e Diogo Cortiz colocaram um contra o outro nessa batalha pelo futuro da internet no novo episódio de Deu Tilt, o podcast do UOL para humanos por trás das máquinas. A Uber criou uma nova modalidade de trabalho: e, se em vez de apenas dirigir, os motoristas também treinassem inteligências artificiais? Enquanto estão parados, eles fariam microtarefas, pequenos trabalhos para ensinar robôs sobre o nosso mundo. Ainda é um teste e só funciona em alguns países. Mas o argumento é sedutor: oferecer renda extra. Na prática, o objetivo é para lá de estratégico: a Uber está de olho no promissor mercado de rotulagem de dados para treinar modelos de IA. O negócio já existe, tanto que a plataforma mais popular é o Mechanical Turk, da Amazon e o termo “microtarefa” é de 2008. Hoje, porém, diversas pessoas dependem exclusivamente dessas plataformas. As tarefas variam: rotular mensagens, tirar fotos de situações específicas, descrever imagens, gravar algumas palavras. Como o pagamento é baixo, os trabalhadores passam horas diante da tela, da mesma forma que os profissionais da Uber passam horas dirigindo. Em que momento, os motoristas encontrarão tempo para as microtarefas? O que não nos contam sobre Veo3, do Google, e Sora2, da OpenAI, as mais avançadas IAs de vídeo? Ficamos hipnotizados pela qualidade do resultado dos vídeos gerados por essas ferramentas, mas não sabemos que a IA está, na verdade, aprendendo sobre o nosso mundo. Vamos do começo: a IA possui uma grande grande limitação. Veja os chatbots: seus modelos de linguagem aprenderam a conversar a partir de textos, mas nunca experimentaram nada no mundo do que é descrito apenas em palavras. Para criar vídeos, essa falha ficaria evidente. Mas os desenvolvedores criaram uma alternativa: uma espécie de visão de máquina, permitindo que a IA “leia” o mundo. Helton Simões Gomes e Diogo Cortiz conversam sobre como estamos ensinando, sem querer, Veo3 e Sora2 a aprender como nosso mundo funciona: leis da física, comportamento das coisas, propriedades dos materiais. O que vai surgir da junção entre modelos de linguagem e IAs que experimentam o mundo ainda é imprevisível. Talvez robôs que agem sozinhos? Encanadores bombadões, faxineiras gatas ou mendigos aparecem em casa. O susto de quem deixou uma criança sozinha ou de um marido ou esposa ciumentos é imediato. A inteligência artificial elevou o nível das pegadinhas na internet, com vídeos hiperrealistas que deixariam o saudoso Ivo Holanda no chinelo. Era para ser só uma trolagem envolvendo traição ou invasão de domicílio. Mas têm provocado impacto concreto à medida que a polícia tem sido acionada para resolver chamados. No novo episódio de Deu Tilt, o podcast do UOL para humanos por trás das máquinas, Diogo Cortiz e Helton Simões Gomes explicam como as pegadinhas com IA miraram nas gracinhas de casal, mas acertaram na discussão sobre a morte do “ver para crer”. Talvez antes mesmo de qualquer futuro distópico em que máquinas dominam seres humanos, vamos encarar outro colapso: e se a IA nos impedir de compreender o que é a realidade?

    55 min

Acerca de

Podcast sobre tecnologia para os humanos por trás das máquinas.

Más de UOL

También te podría interesar