Deu Tilt

Podcast sobre tecnologia para os humanos por trás das máquinas.

  1. 3 DAYS AGO

    Isabella Henriques: por que crianças e redes sociais não combinam. E mais: a IA pode ser cristã?

    A Austrália já proibiu menores de 16 anos nas redes sociais. A França vai na mesma direção. No Brasil, a lei do ECA Digital, em vigor desde o fim do ano passado, obriga plataformas digitais a garantir espaço seguro a crianças e adolescentes, o que pode restringir a presença desse público nas redes sociais. Em entrevista ao Deu Tilt, podcast do UOL para humanos por trás das máquinas, Isabella Henriques, diretora executiva do Instituto Alana, explica como mudou a percepção do mundo sobre as redes sociais após sociedade, família e organizações sociais lutarem durante anos para conscientizar governos e reguladores de que esses ambientes não são feitos para crianças. Há mais de duas décadas, o Alana atua no debate público para a construção de um ambiente digital mais saudável para crianças e adolescentes. “Como um produto, que é colocado no mercado e utilizado massivamente por crianças e adolescentes, não foi pensado, no seu planejamento e ao longo da sua vida útil, no impacto que ele terá para esse público”, conta ela. Para exemplificar como esses ambientes digitais reservam verdadeiras armadilhas para os baixinhos, ela detalha os riscos escondidos nessas plataformas, conhecidos como "quatro Cs": conduta, conteúdo, contrato e contato. Com a maior presença dos jovens nas redes sociais e a entrada deles cada vez mais cedo —alguns com bem menos que 6 anos—, esses fatores de risco se intensificam e viram danos graves à saúde física e mental dos mais novos. As plataformas até oferecem a pais e mães ferramentas de supervisão, mas elas não resolvem o problema estrutural, já que o design das plataformas segue priorizando retenção de atenção e lucro. E no Brasil há um fator complicador: a desigualdade socioeconômica. "Maiores vulnerabilidades na vida offline estão conectadas a maiores vulnerabilidades na vida online”, ressalta. Muitas famílias não conseguem  sequer acessar as ferramentas de controle parental. Num ambiente assim, diz a especialista, apenas a regulação é capaz de equilibrar a relação desigual entre crianças e empresas de tecnologia.

    54 min
  2. 27 JAN

    ‘ChatGPT brasileiro’ e supercomputador da IA: o que já é realidade no Plano Brasileiro de IA?

    O PBIA (Plano Brasileiro de Inteligência Artificial) foi anunciado no fim de 2024 e prometia R$ 23 bilhões para emplacar o Brasil na corrida global da IA. Em entrevista ao Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, Hugo Valadares, diretor do Departamento de Ciência, Tecnologia e Inovação Digital do Ministério da Ciência, Tecnologia e Inovação (MCTI), diz como o plano já tem saído do papel: R$ 6 bilhões para inovação em empresas, 140 mil pessoas capacitadas, atualização do supercomputador Santos Dumont, investimentos em infraestrutura de dados, novos cursos de graduação em IA em universidades públicas. Comparada aos esforços de Estados Unidos e China, a iniciativa brasileira soa modesta. Valadares afirma que, por outro lado, o investimento brasileiro é compatível com o observado na Europa nos planos de França e Reino Unido. "EUA e China estão num patamar de poder tecnológico, não só tecnológico, mas financeiro, que não tem como disputar de igual para igual. Se existe uma Champions League, esses dois disputam sozinhos. Nem a Europa tem essa capacidade. E, se você pensa nessa perspectiva, não adianta falar que amanhã a gente vai competir. Quando você olha o ecossistema de IA por completo, não tem como se comparar com a China, em quantidade de pessoas, engenheiros e computação e o poder de comprar máquinas (…) O Brasil precisa jogar o jogo que lhe cabe", diz o secretário. Para ele, o país "vai andar o mais rápido que conseguir de maneira a participar desse jogo global, seja a série que for, A ou B. Mas não acho que é a C". "O Brasil é um líder mundial e a gente está no quartil superior dos países com maior desenvolvimento tecnológico."

    55 min
  3. 20 JAN

    Gatonet, pirataria e crimes online: o trabalho invisível do Ciberlab

    Há alguns anos, falar em gatonet era imaginar alguém subindo no poste e puxando um cabo clandestino. Esse tempo acabou. Hoje, a pirataria de conteúdo audiovisual se profissionalizou e é oferecida por verdadeiras organizações empresariais, diz Paulo Benelli, delegado da polícia civil e coordenador do Ciberlab, o Laboratório de Operações Cibernéticas do Ministério da Justiça, em entrevista ao Deu Tilt, podcast do UOL para humanos por trás das máquinas. O gatonet moderno opera via IPTV em aparelhos de TV Box, usa servidores espalhados pelo mundo, usa técnicas sofisticadas para driblar os bloqueios das autoridades e, na hora do pagamento, aceita até parcelar. “Hoje [o gatonet] se estruturou de uma maneira não só tecnológica mas também organizada de modo empresarial para poder fraudar direitos de propriedade intelectual e causar dano ao consumidor (...) Tem uma estrutura para pagamento, tem o setor de atendimento ao cliente que nunca resolve nada, tem os setores para fazer a propaganda dessa TV Box, tanto em mídia pequena, como algumas páginas, como também nas redes sociais", diz o investigador. O combate a esse tipo de crime também precisou se reinventar, diz Benelli. No Brasil, o trabalho vai do rastreamento digital a ações conjuntas com as polícias estaduais, federal e, às vezes, de outros países. Mas o problema não para aí: muitas organizações criminosas atuam no roubo de dados pessoais, difusão de malware e outros crimes digitais.

    53 min
  4. 16/12/2025

    OpenAI é Banco Master da IA?; IA para detectar câncer; Google, o fogo amigo contra Nvidia

    A OpenAI está no meio de uma ciranda bilionária para continuar existindo. No novo episódio de Deu Tilt, o podcast do UOL para humanos por trás das máquinas, Diogo Cortiz e Helton Simões Gomes explicam os números que dimensionam a situação complexa da empresa que é a sensação da inteligência artificial. Segundo estudo do time de tecnologia e semicondutores do HSBC, a dona do ChatGPT ficará sem lucro até 2030 e precisará de US$ 207 bilhões para bancar infraestrutura, data centers, energia, água, profissionais e compromissos assumidos com big techs como Microsoft e Amazon. A receita até cresce, mas isso não significa lucro –principalmente quando cada novo modelo custa ainda mais que os anteriores. O Sora 2, por exemplo, só aumentou o tamanho do rombo. Para o HSBC, há caminhos para a empresa fechar as contas, mas todos tortuosos: dobrar a base de assinantes pagos, entrar pesado na publicidade digital e descobrir formas mais eficientes de usar IA. E a mais complexa delas: para empatar, a OpenAI teria de convencer 44% da população mundial a pagar por seus serviços até 2030, número que nenhuma rede social ou app alcançou até hoje. Se parece absurdo, lembra um pouco o caso do Banco Master: uma montanha de promessas e um buraco ainda maior. Uma startup brasileira criou uma IA capaz de identificar indícios iniciais de câncer de intestino usando apenas um exame de sangue. Em entrevista ao Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, a CTO da Huna Daniella Castro explicou que a pesquisa da Huna começou pelo câncer de mama e avançou para o de intestino –ambos alguns dos mais comuns no Brasil. Daniela ressalta que o desafio para o desenvolvimento da IA da Huna vai além da tecnologia: acessar dados de qualidade é fragmentado e contar com informações interoperáveis. Ela menciona estes pontos, porque o segredo da Huna é justamente o método criado para ensinar seu modelo de IA a encontrar sinais de câncer: primeiro, a equipe analisou resultados de colonoscopias e dividiu os pacientes em dois grupos (pessoas sem rastros de câncer e pessoas com lesões precursoras ou com tumor já instalado); depois, usou a IA para comparar os hemogramas desses dois grupos e identificar padrões de alteração que antecedem o câncer. A executiva explica que a mesma abordagem pode ser usada para rastrear outras doenças complexas, como diabetes e falência renal, um campo enorme que a IA ainda está começando a explorar. A vida da Nvidia não está nada fácil. Primeiro, foi proibida pelos EUA de vender chips para a China. Liberada, viu a China levantar barreiras. Agora, a empresa enfrenta fogo amigo dentro de casa: o Google entrou oficialmente no mercado de chips de inteligência artificial. No novo episódio de Deu Tilt, o podcast para os humanos por trás das máquinas, Diogo Cortiz e Helton Simões Gomes contam como o cenário aponta para uma reviravolta inevitável: o domínio absoluto da Nvidia está sob ameaça.

    54 min
  5. 09/12/2025

    O ‘novo momento DeepSeek’ e o dilema da IA: quem paga para robô ser treinado no Brasil?

    Em entrevista ao Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, Pedro Henrique Ramos, diretor-executivo do Reglab, foi taxativo: o Brasil caminha para ser o mais restritivo do mundo no treinamento de inteligência artificial, o que afetará o PIB do país. Segundo levantamento do think tank especializado em políticas públicas em tecnologia, o país pode perder R$ 21 bilhões se aprovar uma legislação que impeça IAs generativas de serem treinadas com obras protegidas por direitos autorais. O mesmo vale para inferências. Mas existem três caminhos, diz Ramos: liberar amplamente o uso do que está aberto na internet; criar um regime intermediário, com possibilidade de fazer pedidos de retirada de obras; adotar uma linha mais dura, em que nada é usado sem pagamento. Só que a internet é global, e as leis, nacionais, diz. Se o Brasil aprovar uma proposta mais restritiva, empresas podem simplesmente levar seus data centers para outros lugares. Ramos não esconde que a liberação de informações protegidas para treinar IA é algo que beneficia as big tech norte-americanas, como Google e Meta, mas diz que a disputa, no fim das contas, é entre grandes conglomerados empresariais: quem treina modelos de IA versus quem detém direitos autorais. E os produtores de conteúdo podem até se dar bem com a IA, já que, segundo a pesquisa Futuros Criativos, a nova tecnologia pode até reduzir os royalties das indústrias criativas, mas, por outro lado, tende a elevar sua produtividade. Já Luca Schirru, advogado e consultor em direitos autorais, afirma que a regulação do uso de dados para o treinamento da IA depende de como, por quem e para quê eles estão sendo minerados. Há uma diferença entre a utilização de dados para pesquisas ou por instituições públicas e sem fins lucrativos e por grandes empresas de mercado, que geram lucro a partir desses dados ou oferecem obras que podem substituir o trabalho humano. Segundo ele, é possível combinar diferentes caminhos de remuneração pelo uso de dados e conteúdos criativos por grandes empresas, como autorizar certas formas de treinamento e, ao mesmo tempo, cobrar o pagamento apenas das big techs que lucram com a IA generativa. Startups, modelos abertos e projetos de pesquisa poderiam se beneficiar de modelos mais flexíveis. Schirru ressalta que ferramentas como a ProRata.AI já apontam para a possibilidade de identificar quais obras entraram no treinamento, criando uma base para modelos de remuneração mais transparentes. Para equilibrar os interesses, ele sugere mecanismos que vão além do licenciamento tradicional: taxas sobre receita, fundos para autores e veículos de imprensa, ou investimentos em capacitação. O objetivo é garantir sustentabilidade para quem cria, sem travar a inovação. Do nada, a China lançou um app que ultrapassou o Gemini, o ChatGPT e até o DeepSeek em número de acessos. Em uma semana, o Qwen bateu 10 milhões de downloads. Ele é do Alibaba, que os brasileiros conhecem pelo AliExpress, mas que também tem uma das maiores infraestruturas de computação em nuvem do mundo. O Qwen começou como um modelo de IA aberto, usado por empresas que preferem aproveitar uma base em vez de gastar tempo e dinheiro na fase de pré-treinamento da IA. Agora virou chatbot e, com o app, o Alibaba decidiu se apresentar ao consumidor global como uma companhia AI first, no melhor estilo Google. E tem mais: a empresa também lançou o Quark, um assistente pessoal de IA combinado com navegador. A mensagem é clara: o Alibaba não quer só disputar mercado, mas tomar a liderança na corrida tecnológica.

    54 min
  6. 02/12/2025

    Giselle Beiguelman discute: arte com IA é arte? ‘Censura algorítmica’ e obsolescência desprogramada

    Em entrevista a Deu Tilt, a artista visual, professora universitária e pesquisadora Giselle Beiguelman desmonta a ideia de que existe “arte criada pela máquina”. Para ela, o que chamamos de arte com IA é sempre arte com tecnologia, feita com a máquina, e não por ela. A grande novidade, inédita na história da arte, é que a tecnologia agora toma decisões durante o processo criativo. Nenhum artista controla 100% seus instrumentos, mas a IA interfere nos rumos da criação. Quando alguém pergunta se arte com IA “é arte”, Giselle responde olhando para o processo. O prompt não é só descrição; é uma experiência que tensiona os meios de produção. A IA muda o campo artístico ao mesmo tempo em que amplia e ameaça. Copiar ficou fácil, criar continua difícil. No lugar do desvio de padrão, que sempre foi motor da arte, o risco é ficarmos presos numa jaula cibernética onde tudo é retroalimentado pelos mesmos arquivos hegemônicos. Arquivos inexistentes podem ser apontados, mas referências que fogem do padrão podem desaparecer. O repertório coletivo corre o risco de se diluir. Para Giselle, o debate gira em torno da democratização do acesso à arte, mas também em torno de quem controla os meios para criar –afinal, os melhores recursos já são pagos. A cultura do padrão reforça repertórios hegemônicos, e os maiores problemas da IA continuam sendo humanos: a reprodução de nossos vieses e modelos culturais.

    52 min
  7. 25/11/2025

    Veo 3 x Sora 2; IA derruba a produtividade; Grokipedia, a Wikipédia do Musk; As startups da fé

    Veo 3 ou Sora 2? Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, colocou frente a frente as duas ferramentas que estão puxando a nova onda de vídeos hiper-realistas feitos por IA. Aposta do Google, o Veo 3 funciona integrado ao Gemini: você escreve um prompt e recebe um vídeo de até 8 segundos. Já o Sora 2, da OpenAI, parece um rival da Meta: cria vídeos de 10 segundos em uma rede social disponível só nos Estados Unidos e para convidados. O desafio é simples: submeter pedidos diretos, do jeito que as pessoas fariam, sem engenharia de prompt ou detalhes técnicos e ver qual plataforma vai melhor. Além do embate, há uma discussão sobre os riscos dos vídeos realistas. O uso indevido da imagem de figuras públicas em situações vexatórias, ofensivas ou completamente contrárias à sua história já provocou saias justas. O Sora 2 foi usado para criar vídeos racistas de Martin Luther King, removidos só depois de pedidos formais da família. O mesmo ocorreu com o ator Bryan Cranston, o Walter White de “Breaking Bad”. Tudo isso levanta uma pergunta que ninguém na indústria parece disposto a responder: por que a plataforma não pede autorização prévia para usar a imagem dessas pessoas? A IA prometeu tudo em relação ao aumento da produtividade no trabalho, mas a entrega ainda está longe das expectativas. Na corrida para não ficar para trás, muita empresa adota IA movida por FOMO (medo de ficar por fora, na sigla em inglês), não por estratégia. O resultado aparece nos números: 95% dos projetos que adotaram a IA com o objetivo de aumentar a produtividade não trazem o retorno esperado. Helton Simões Gomes e Diogo Cortiz contam como a IA tem matado a produtividade do trabalho, diferente do que se esperava. Um estudo do Stanford Media Lab mostra que o problema tem nome: “work slop”. Sabe quando a pessoa delega para a IA algo que ela mesma deveria fazer, mas a IA entrega um trabalho incompleto, cheio de erros e que precisa ser revisado por outra pessoa? Pois é: “work slop”. Isso derruba a produtividade de equipes inteiras, do gerentes aos subordinados. E os efeitos financeiros são claros: funcionários gastam, em média, duas horas para refazer tarefas mal feitas pela IA. Os custos invisíveis podem chegar a US$ 9 milhões por ano, segundo estimativas de pesquisadores. E aí está o desafio central: como extrair o melhor da IA e dos humanos, sem que um atrapalhe o outro? A birra de Elon Musk com a Wikipedia, apelidada por ele de ‘wokepedia’, levou o magnata a criar sua própria enciclopédia: a Grokipedia. Deu Tilt conta qual a diferença entre as duas: do número de artigos (Wikipédia tem mais de 7 milhões, a Grokipedia tem cerca de 800 mil verbetes, todos produzidos pela própria IA) à produção (na Wikipedia, os textos são escritos e revisados de forma colaborativa por uma comunidade enorme de voluntários, e na Grokipedia não há transparência sobre as fontes). Se Musk queria evitar viés e politização, o resultado foi outro: no verbete sobre o “Black Lives Matter”, por exemplo, o Grok acusa o movimento de defender o fim da família nuclear, o que elevaria a criminalidade nas comunidades negras. A própria organização, em seu site, diz defender diferentes modelos de família, não o fim da estrutura familiar. Há outros problemas na Grokipedia, como fontes majoritariamente dos Estados Unidos,verbetes com vieses racistas, transfóbicos e com teorias conspiratórias. Diante disso, ficam as perguntas: o que pensaria Diderot, um dos criadores da enciclopédia moderna, ao se deparar com a Grokipedia? E mais: por que Musk resolveu investir numa enciclopédia? E outra: se hoje a Wikipedia é fonte crucial para IAs, o que acontece se esses modelos passarem a ser alimentados pelo Grok no futuro?

    52 min

About

Podcast sobre tecnologia para os humanos por trás das máquinas.

More From UOL

You Might Also Like