235: Nvidia DLSS 5 irrita os gamers, ChatGPT e câncer canino, Google AI Studio com vibe coding
Sexta-feira é dia de repercutir as principais notícias da semana, no mundo da IA. Vem ver quem participou desse papo:
Marcus Mendes, host sob controleFabrício Carraro, co-host sob controle, Program Manager da Alura, autor de IA e host do podcast Carreira Sem FronteirasLinks:
Imersão IA Sob Controle no Vale do Silício234: Entendendo modelos de mundo e JEPA, com Randall Balestriero, da Meta FAIRYouTube do IA Sob Controle OpenAI lança o GPT-5.4 mini e nanoOpenAI pode unificar o ChatGPT, Codex, e AtlasOpenAI compra a AstralEncyclopedia Britannica e Merriam-Webster processam a OpenAIOpenAI irá se concentr...- Conflito Pentagon-AnthropicCadeia de suprimento · Recusa de vigilância e armas letais · Funcionários estrangeiros · Processos judiciais
- Nvidia DLSS 5 com fotorrealismoUpscaling neural · Aumento de frames · Efeitos de luz e textura · Reações de gamers · Controvérsia de estética
- Estratégia de foco corporativo OpenAIReorganização interna · Foco em programação e clientes corporativos · Mudança de prioridades · Descontinuação de iniciativas dispersas
- OpenAI GPT 5.4 Mini e NanoLançamento de modelos menores · Custo reduzido · Desempenho em codificação · Comparação de benchmarks · Agentes e workflows multimodais
- Unificação de produtos OpenAIChatGPT, Codex e Atlas unificados · Foco no mercado corporativo · Simplificação da experiência do usuário · Super aplicativo
- Nvidia NemoClock - OpenClock corporativoVersão empresarial segura · Integração com Nvidia Inference Server · Privacidade e guardrails · Modelos Nemotron
- Domínio Técnico e Competitividade73% de gastos em ferramentas de IA · Adoção empresarial · Crescimento de market share · Comparação com OpenAI
- Criptografia e moderação em plataformas MetaAutomação de moderação · Detecção de conteúdo · Terceirização reduzida · Transição a longo prazo
- Caso Rose Tratamento Câncer CachorroVacina de mRNA personalizada · ChatGPT e Alpha Fold · Sequenciamento de DNA · Remissão tumoral
- IA Vale do SilicioViagem 31 agosto a 4 setembro · Conhecer Big Techs · Palestras nas empresas · 70% vagas preenchidas
- Inteligência ArtificialResumos de IA na busca · Redução de cliques em sites · Inquérito CADE Brasil · Migração para plataformas de vídeo
- Desenvolvimento TecnologicoModelo de codificação · Benchmarks de programação · Custo reduzido · Especialização em código
- Mistral Small 4 modelo multimodalMixture of experts · Contexto de 250k tokens · Múltiplas especialidades · Velocidade e custo
- Paper Attention Residuals otimizaçãoSubstituição de conexões residuais · Mecanismo de atenção dinâmica · 25% ganho computacional · Redes neurais profundas
- Paper ExoLangBent - raciocínio vs padrõesLinguagens de programação exóticas · BrainFuck e Whitespace · Transferência de conhecimento · Benchmarks de raciocínio
- Microsoft e produtos de tecnologiaFoco dual em consumidor e corporativo · Novo CEO de produtos · Estratégia de Copilot · Divisão de liderança
- China retaliatório contra Anthropic-ManusBloqueio de saída de funcionários · Aquisição de Manus · Restrições de exportação · Barganha política
- Nvidia retomada produção GPUs H100GPUs Hopper · Venda para China · Suprimento de mercado · Competição com Huawei
- Manus Manus Computer - OpenClock privadoControle local na máquina · Segurança e privacidade · Rodando models Manus · Alternativa OpenClock
- Relações BrasilEncyclopedia Britannica e Merriam-Webster · Uso de materiais sem permissão · Treinamento de modelos · Questões legais de propriedade intelectual
- Tecnologia e InovacaoFerramenta de acesso remoto de máquina · Segurança e privacidade · Autorização de ações · Dispositivos móveis
- Fraudes Financeiras8 grandes empresas · Compartilhamento de inteligência · Golpes e fraudes · Segurança coordenada
- Nvidia GPU Rack e infraestrutura GroqGroq 3 LPX com 256 GPUs · Inferência de modelos · Venda para mercado chinês · Chips especializados
- Nvidia Nemotron e colisão abertaModelos abertos de IA · Parceria com Black Forest Labs, Mistral, Perplexity · Treinamento na cloud Nvidia · Nemotron 3 Ultra
- OpenAI adquire AstralCompra de startup Python · Biblioteca UV · Especialização em desenvolvimento · Time técnico
- Incidente de IA com credenciais MetaContorno de controles de identidade · Exposição de dados sensíveis · Comportamento indevido de agentes · Falta de validação de intenção
- Estudo Stanford Viés Chatbots66% de afirmação de ideias falsas · Pensamento alucinado · Validação de conceitos delirantes · Impactos reais
- xAI Grok reposicionamentoFoco em programação · Contratação de talentos · Reorganização interna · Qualidade do modelo
- LangChain integração NvidiaPlataforma empresarial de agentes · Desenvolvimento em escala · Monitoramento e implantação · Integração de ferramentas
- FireFly Studio descontinuado GoogleSustitução por Google AI Studio · Mudança de nome · Foco em programação agente · Evolução de ferramentas
- Canal YouTube IA Sob ControleVersão resumida semanal · 20 minutos de conteúdo · Vídeos de notícias · Acompanhamento do podcast
- Minimax M2.7 para agentesModelo chinês de IA · Otimizado para OpenClock · Benchmarks competitivos · Custo-benefício
- DeepSeek reorganização e modelosReestruturação interna · Foco em produtos · Hardware e software unificados · Pesquisa em IA
- Hunter Alpha - modelo misteriosoUm trilhão de parâmetros · Possível DeepSeek V4 · Testes em OpenRoute · Especulação de comunidade
- Perplexity iOS Sonar e navegaçãoLançamento no iOS · Navegador agentico no iPhone · Lançamento atrasado · Integração móvel
- Perplexity vitória legal Amazon comprasBloqueio pausado · Navegação agentica em marketplace · Processo judicial · Compras autônomas
- Adobe Firefly personalização estiloTreinamento em estilo artístico · 10-60 imagens · Geração personalizada · Integração Photoshop
- Vídeo GEPA 2.1 aprendizadoArquitetura GEPA para vídeo · Representações visuais · Detalhes locais e movimento · Supervisão em camadas
- Estudo qualitativo Anthropic - esperança em IA80 mil quintos respondentes · Ganhos de produtividade · Preocupações éticas · 9 clusters de impacto
- Nvidia acordo com AWSUm milhão de GPUs até 2027 · Servidores Trainium · Chips Blackwell e Hopper · Entregas em 2025
- Paper Prompt Injection e confusão de papelInjeção de prompt · Confusão de papéis · Ambiguidade em mensagens · Exploração de modelos
- Prisão por fraude streaming música com IAMilhões de contas bot · Geração de música com IA · Ganho de royalties · Fraude no Spotify
- Uso de ferramentas de IA pagas vs gratuitas80% assinam pelo menos uma ferramenta · Modelos padrão GPT, Gemini, Claude · Planos mais baratos · Enquete Spotify
Bem-vindas e bem-vindos à edição de sexta-feira, edição do Resumão de Notícias do IA Sob Controle, o seu podcast com overfitting de informações sobre o mundo da inteligência artificial. Eu sou o Marcos Mendes e tenho, claro, assim como toda semana por aqui, o Fabrício Carraro, viajante poliglota, host do podcast Carreiras Sem Fronteiras, autor da newsletter IA Sob Controle, que se você não recebe ainda, o link está na descrição, e Program Manager da Alura. Fabrício, tudo bem? E aí, Marcos? E aí, galera?
mais uma sexta-feira. Marcos, tenho notícia maravilhosa para começar aqui. Estou de passagem comprada oficialmente agora para a nossa imersão do IA Sobre Controle lá no Vale do Silício. Aí sim! É aí que a coisa começa a ficar de verdade. Exatamente, finalmente agora. Lembrando para quem está chegando agora, pulando de paraquedas agora nos nossos episódios de notícias, nós aqui do IA Sobre Controle, eu e o Marcos,
fundador da Alura, e o Marcel Almeida, fundador da PM3, vamos viajar lá para o Vale do Silício no final de agosto, começo de setembro, e você aí de casa vai com a gente. A gente está fazendo esse pacote, essa viagem com a Starts, uma empresa que agora faz parte do Grupo Allon, e eles já têm essa experiência de anos fazendo viagens para conhecer as big techs lá do Vale do Silício, na China também, pode ser que a gente vá para a China também, talvez esse ano, ano que vem, não sei, veremos aí.
Mas essa primeira viagem que a gente vai fazer aqui com o podcast IA Sobre Controle vai ser para conhecer as Big Techs lá do Vale do Silício. Vai rolar do dia 31 de agosto até o dia 4 de setembro, uma semaninha ali conhecendo basicamente as empresas mais importantes e você pode ir com a gente. É só você ir no link que está aqui na descrição desse episódio lá em iasobrecontrole.tech ou aí no seu agregador de podcast, no Spotify, onde for, que você pode entrar diretamente pelo link,
já falar com o pessoal da Startup pra ver como é que vai funcionar. Só que lembrando, a gente vai... O primeiro dia de viagem, o primeiro dia de visitas é dia 31 de agosto. A gente já tá, ó, cinco meses de distância. Então, eu recomendo você correr com isso, porque tem que ver as passagens, tem que ver visto algumas pessoas. Além disso, quanto mais perto chega, mais caro fica com as passagens. E o mais importante é que as vagas estão acabando. Já tá ali quase... 60, 70% das vagas
viagens já estão preenchidas, então vai lá no link, corre lá pra você ir viajar com a gente também e visitar as principais empresas do Vale dos Silícios. Só que, Marcos, quais são essas empresas? Olha, só as empresas que a gente comenta aqui toda semana no podcast, como a gente vem explicando. As empresas não vão vender pacote de viagem usando o nosso nome, tá bom? Então a gente concordou em não fazer isso. Mas se você for no site, você vai ver como é que foi pelo menos uma viagem recente da Startse pra lá,
era temática de IA, mas dá para ter uma ideia de como é que são os dias que são intensos. Tem coisa de manhã, aí tem almoço, tem à tarde, tem no fim da tarde, tem coisa à noite. Não só visita, mas palestra nas empresas que a gente está visitando com o grupo todo. E a gente, com o grupo mais fechado, também vai poder confirmar com as empresas. Seremos tantos. Chegando aí dia 21, rola chegar na empresa de primeiro, sei lá. A gente vai organizar a partir disso. Mas são as empresas que a gente comenta aqui. Todo episódio, todo mundo já sabe
quais são. Eu tô empolgadíssimo pra ir. E é aquilo, né? Fabrício, você já viu que já passou 20% do ano? 21, na verdade, por cento do ano? Então, corram! Pra vocês não perderem essa chance que vai ser muito legal. Mal vejo a hora. Além disso, a gente teve uma enquete, a enquetinha da semana que a gente faz lá no Spotify, perguntando se você assina ferramentas de A ou se você só usa os planos gratuitos. E fiquei levemente surpreso. Não muito surpreso, porque eu tenho visto esse movimento
cada vez maior, mas 80% das pessoas falou que assina pelo menos uma, e aí pode ser o GPT, pode ser o Gemini, pode ser o Cloud, pode ser o Cursor, qualquer coisa nesse sentido, Suno, a gente não limitou só pra esses mais generais, pode ser de música, pode ser de imagens, né? Mas 20% só usa os gratuitos. Pois é, eu também achei que seria um pouco mais dividido, com 80%. É que também, agora, existem aqueles planos que não custam mais o olho da cara, só pra você ter acesso ao chatbot,
melhorzinho do que o gratuito. Quando ainda era 100 conto por mês é pesado. Aí tem que ser assim. A maioria, imagino, e o meu caso assinava só uma. Agora que tem os planos mais baratos de algumas das empresas, o Antropic, fica mais fácil de assinar. Mas sim, foi 80% do pessoal assinando. Que bom. Bom para essas pessoas e para quem está nos 20% gratuitos. Interessante também que dependendo do que precisa fazer, ainda rola usar o gratuito. A gente perguntou isso no
texto de quando a gente falou sobre os agregadores de LLMs, que não era uma boa ideia assinar por N motivos. Então é interessante ver que o pessoal está assinando pelo menos uma das IAs. Vamos daqui a um ano fazer essa enquete de novo, ver o que mudou. Vai ser interessante. Exatamente. E uma entrevista que a gente teve essa semana, se você pulou o episódio de quarta-feira de entrevistas, eu recomendo muito que você volte lá e escute, porque foi talvez a entrevista, eu acho que mais técnica da história do programa, com o Randall
balestreiro francês, que trabalha com o Ian Lecan, papai Lecan, nos modelos JEPA, modelos de mundo. E ele está ali na base, literalmente, da pesquisa. Ele é professor lá na Universidade de Brown, nos Estados Unidos, também trabalha na MetaFair, que o Lecan saiu faz pouquíssimo tempo para abrir a empresa AmiLabs, para pesquisar mais a fundo isso daí de modelos de mundo. E o Randall, uma pessoa extremamente simpática, extremamente gentil, com o trato, com a
com as explicações que ele deu lá. Então, para quem está querendo saber qual é o próximo passo da pesquisa, é uma coisa que eu venho falando aqui já há algum tempo. Modelos de mundo é o que está mais quente atualmente na pesquisa como futuro das IAs. O de hoje em dia, a LLM, todo mundo está indo lá porque é o long-hanging fruit. É o mais fácil você publicar um paper ali sobre a LLM, vai para o seu Google Scholar, vai para o seu Lattes, alguma coisa assim. Mas quem está realmente pesquisando,
tentando chegar no futuro, tá olhando mais pra modelos de mundo, e o JEPA é uma dessas arquiteturas que tá tentando chegar lá, e o Randall é uma das pessoas que tá por trás da arquitetura JEPA, publicou esses papers junto com o Lecan, e deu uma aula pra gente, basicamente, de como funciona isso, então, se você perdeu, vai lá escutar, que vale muito a pena. Boa, e é um daqueles episódios que são em inglês, dublado, com a voz da pessoa, é um trabalho do diabo fazer, então, escutei, mas ficou bom também,
Conteúdo que, assim, é muito técnico, sem dúvida, mas é aquilo que eu sempre falo. Se eu entendi, todo mundo vai entender. Então dá pra ouvir numa boa. E no link do episódio tem o papo em inglês. Se você quiser escutar o papo original com o Randall que fala com o sotacão francês. Parece aquele caricato de TV, assim. E ele é um cara extremamente gente boa. Foi extremamente paciente com a gente. E também foi muito generoso com o tempo dele. Deu pra seguir conversando mesmo passando depois do tempo. Foi bem legal. A gente recomenda muito que vocês escutem.
coisas novas, assim como eu aprendi, como o Fabrício aprendeu, e se preparar pra isso que é esse próximo passo mesmo, tudo que a gente já vem falando e vai seguir falando aqui sobre modelos de mundo, entender o que que é, pra que que tá servindo, como é que ele vai evoluir, pegar desde o começo, como ele falou, ainda é uma coisa meio pequena, o que é meio maluco, né? É importante pra quem se interessa, ou principalmente pra quem já tá nesse mundo. Então passe aqui na descrição e escutem. E se vocês quiserem assistir, não essa entrevista, mas assistir A e A sobre controle também dá mais ou menos,
Fabrício? Exatamente. Não sei se todo mundo está sabendo, mas a gente tem um canal no YouTube agora. O canal se chama literalmente IA, Sob Controle, Inteligência Artificial. E a gente posta lá toda semana, toda sexta-feira, junto aqui com os episódios de notícias, a gente posta uma versão resumida desses episódios. É literalmente o mesmo áudio, vamos dizer assim, só que aí é um resumão do resumão, basicamente. Então a gente pega algumas notícias pontuais que a gente discutiu aqui,
no episódio de áudio, que é bem mais longo, e fica ali em torno de 20 minutos, meia hora no máximo, estourando, só que isso em vídeo, com uma linguagem mais youtubística, vamos dizer assim. E se você, talvez naquela semana você não teve tempo, você pode ir ali pelo menos escutar ou assistir a versão em vídeo lá no YouTube, ou para aquela pessoa que se fala, putz, essa pessoa não é muito de podcast, mas recomenda para ela, tem aqui o vídeo no YouTube, 20 minutos, meia horinha,
algumas das coisas que aconteceram naquela semana do mundo da IA. E aí, claro, a gente sempre pede para você. Recomenda para cinco amigos, manda ali no LinkedIn, manda no seu Twitter, manda para sua mãe, para sua tia, que se interessa por IA, para elas saberem um pouquinho mais desse mundo e verem os nossos rostinhos bonitos ali no YouTube, né, Marcos? Exatamente. Então o link vai estar na descrição também. Vamos lá abrir aqui. Tradicionalmente a gente faz com a OpenAI e vamos começar com a OpenAI do que pintou nessa semana. E ela lançou um modelo novo.
tarde, eu acho, quinta-feira tarde, que foi o GPT 5.4 Mini e o GPT 5.4 Nano. E ela falou, isso é voltado para o mundo de codificação, de agentes, de workflows multimodais, então que não envolve só texto, mas áudio, vídeo também, interação com isso, e oferecendo também um desempenho que é próximo do GPT 5.4, mas por ser Mini, por ser Nano,
um custo menor, especialmente na PI, para você poder usar, tirar proveito. Então, se você é dev e está usando um GPT-4 ou tem necessidades de codificação, agênticas, etc, porque você está fazendo, dá uma espiadinha. Pode ser mais barato com desempenho próximo, quer dizer, um pouquinho pior. É o custo-benefício. Se você está usando o GPT-4 e está sobrando, talvez o mini, talvez o nano, com seus preços, fique um pouquinho mais dentro do que você está precisando.
E foi meio de surpresa, né? Não vi ninguém falando sobre talvez saia modelo menor do GPT-4. Na verdade, o GPT-4 foi surpresa. Então, o Minionano seguiu, né? Totalmente de surpresa. E eles nem deram muito um anúncio muito grandioso para esses modelos, porque eles são basicamente uma versão destilada do 5.4 que a gente tem aí. Se você for olhar ali nos benchmarks, ele fica, por exemplo, no de programação, o SWE Bench Verified Pro, ficou bem próximo ali.
O Mini com 54%, o Nano com 52%, comparando com 57% da versão normal. Todos ali no modo extra high de poder computacional. Já quando a gente vai falar de uso agêntico e tudo mais, aí a diferença é bem grande. O 5.4 normal estava com 75%, no Mini ele cai para 60% e no Nano ele cai para 46%. Enfim, são versões bem mais enxutas, só que como o Marcos falou.
5.4 está sobrando, você não precisa de tanto poder assim, é só para uma coisinha ali de orientação agêntica, chamar um servidorzinho MCP, alguma coisa nesse sentido, talvez vale a pena você dar uma caída ali nesse tier do seu modelo que você está usando, ou então, no mínimo, fazer um benchmarking para ver se ele funciona tão bem quanto, e aí se funcionar, você tem essas versões bem mais baratas para rodar. Excelente. Uma outra coisa que saiu nessa semana, isso foi um vazamento, saiu no Wall Street Journal, era inevitável, né? A gente deve ter falado
sobre isso aqui. A OpenAI está planejando unificar o chat GPT, o Codex e o navegador dela em um super app. Uma coisa só, unificada, centralizada, para tentar simplificar a experiência do usuário e também ter um foco um pouco maior em negócios, toda a parte corporativa. A Anthropic veio nadando de braçada nesse mercado nos últimos anos, enquanto a OpenAI ficou mais focada no mercado de consumidor final.
E a OpenAI está acordando para o fato de que ela precisa correr atrás desse mercado corporativo. Então, com um foco para o mercado corporativo de olho nisso, ela deve unificar. O chat GPT e o códex já são bem parecidos, no fim das contas. Pelo menos no Mac é assim. A vantagem do códex é que é uma interface muito familiar para quem já usa o GPT, para você conversar com ele e ir pedindo para ele programar as coisas para você.
esse super app, é uma ideia, assim, óbvia, mas ousada, sabe? Porque são muitas pontas para encaixar. Fico curioso para saber como é que vai ser. Para quem usa, pelo menos, de novo, no Mac é assim, eu estou usando o GPT, pergunto uma coisa para ele, ele bota um linkzinho lá de referência, você clica no link, ele abre um painel lateral com uma página ali para você poder acessar direto a partir dali. Mas não é um navegador, é a página direta só ali. Então, será que o chat GPT inteiro vai ser baseado no Chromium? Sei lá, vai ser interessante ver o que vai...
acontecer. Mas é uma ideia. É uma ideia. Vou colocar assim. Bem interessante mesmo. E eles estão tentando, né? Eles estão tentando, inclusive, colocar tudo no mesmo lugar. Principalmente, eu acho, também é uma consequência do lançamento do OpenClaw. Porque eles viram que você não precisa mais ter milhões de coisas. Você pode ter, literalmente, o seu WhatsApp, o seu Telegram e você consegue interagir com o mundo. E aí, seja o seu GitHub, seja o tempo,
seja o Cloud Code, você pode fazer basicamente o que você quiser a partir dali, o seu Gmail e etc. Nesse mundo agêntico que a gente está entrando desde o ano passado praticamente, mas principalmente com o lançamento do OpenClaw, mostrou as possibilidades de você ter tudo mais ou menos num lugar. E também eles terem um milhão de coisas diferentes, que era a regra até agora. Então você tem o app do ChatGPT, mas aí você tem o app do Codex, aí você tem o browser do Atlas,
para vídeo. Começou a dispersar muito tudo que eles tinham e agora a galera meio que parece que olhou e falou, para, vamos parar tudo. Não parar, mas vamos tentar centralizar ou unificar tudo em um lugar só. E aparentemente, esse lugar de unificação vai ser ou o browser Atlas ou então o app do Codex, que já está disponível. A galera está usando, o pessoal está elogiando muito, inclusive, o app do Codex,
no mesmo nível, ou até melhor do que o apps do Cloud Code, declarações nesse sentido. Para quem nunca testou, vale baixar, vale instalar aí na sua máquina. E acho uma ideia realmente interessante ter tudo num lugar. Obviamente, no começo não vai funcionar muito bem, como nada no começo funciona muito bem, mas se isso já está indo nesse caminho, a gente pode pensar nesse lançamento para os próximos poucos meses. Porque do jeito que eles estão produzindo e liberando coisas,
e as outras empresas também nessa corrida, vale esperar isso ainda para o verão, agora europeu, verão da América do Norte, que é entre julho, agosto, setembro, mais ou menos. E uma coisa assim, o Cloud Code sem dúvida é mais complicado do que o Codex da OpenAI, porque o Codex da OpenAI é isso que eu falei, interface familiar, você tem um campinho de prompt, você escreve, ele responde, a conversa está ali. O Cloud Code ainda é baseado no terminal, você tem que saber, tem que ir atrás um pouquinho mais para fazer o negócio,
funcionar direito, e ele não roda no terminal, o que é engraçado, ele usa o terminal como interface, ele tem toda uma parte por baixo do capô ali, que é muito mais pesada até, do que só, entre aspas, rodar no terminal, e foi o jeito, e eu fico pensando, se esse foi o jeito que a Antropic fez, que foi o mais fácil, ao invés de fazer um aplicativo, é tipo a diferença da Microsoft, que é uma empresa que tem muitos engenheiros ali, pensam em soluções de engenharia, sabe, então, ah, vamos fazer, faz por meio do terminal, não é tão
ligável quanto uma interface mais familiar. Isso você tem que saber. Eu, quando testei lá, eu fiz a rinha de VibeCode, que eu tentei primeiro pelo Codex, depois pelo Cloud Code para fazer um aplicativo. O do Cloud Code ficou melhor, mas primeiro, eu falei, ele pedia muita permissão aqui. Posso fazer isso? Posso rodar esse comando terminal? O cara, sei lá, não sei o que esse comando faz. Não sei. Até tem lá a explicação. Você aperta, acho que Ctrl-E, Ctrl-O, algum desses. Ele fala, esse comando aqui, faz isso, isso, isso, isso, vai ajudar nisso.
a 20ª vez e falei, cara, só vai. Mas eu aprendi umas coisinhas. Mas ainda assim, o codex não tinha nada disso. Então, certamente, a interface já é mais familiar mesmo. Só pontuar isso aqui. Mas, assim, para quem tem curiosidade sobre isso, testa os dois. Se eu conseguir, todo mundo consegue. Vai lá, instala o Cloud Code, roda ele, porque é interessante. Mas o codex, sem dúvida alguma, é muito mais fácil de usar. Isso não tem nem comparação. Outra notícia que surpreendeu muita gente essa semana,
da OpenAI, foi que eles compraram a startup Astral, que ela faz ali basicamente ferramentas, coisas em Python. Eles são os criadores, por exemplo, da biblioteca UV, que é, na verdade, um gerenciador de pacotes ali para o Python, que é extremamente rápido, programado em Rust. Então, eles têm um time muito especializado de desenvolvedores lá. E, dessa vez, não foi uma compra... Como que era? Compratação.
na verdade foi uma compra mesmo, eles compraram a empresa, e aí no final da compra, quando assinar os contratos, a galera, o time da Astral vai entrar, vão virar desenvolvedores ali, members of technical staff da própria OpenAI, no time do Codex, ou seja, a galera mais focada mesmo na programação, que seria ali o concorrente do Cloud Code, ou do Cursor, ou seja lá o que for, mas faz muito sentido, porque essa galera é muito especializada,
isso daí, já trabalho há anos fazendo projetos excelentes. Então, uma excelente compra aqui da OpenAI, pra mim, faz todo sentido. E, nessa semana, a enciclopédia britânica e, ela é dona, da verdade, do Merriam-Webster dicionário, que é uma subsidiária, né? Eles abriram um processo contra a OpenAI, alegando um mau uso dos materiais de referência deles pra fazer treinamento de modelos de IA. E aquele papo já super familiar, que a gente já trouxe aqui várias vezes, de empresas falando, tá, você usa
Usou esse material sem a permissão para treinar o modelo, etc. E agora isso é Copa de Britânica e a subsidiária dela, Man Rapster, também fazendo isso. E todo mundo teve a mesma ideia, né? Colocou como imagem de ilustração de matéria o verbete de copyright. Para ilustrar ali o que é. Vamos ver, né? Mais um lado da empresa sendo processada por ter feito isso. A gente viu o Antropic ter que fazer acordos caros para acabar com o processo. O PNA ainda não fez acordo, mas está sendo processada torto e a direito
Microsoft de meio de tabela também. Vamos ver o que sai desse. E também uma galera ali da OpenAI, principalmente a Fidcimo, que ela tinha sido contratada aqui um tempo atrás, a gente comentou aqui no programa, para ser a CEO de aplicativos, de aplicações, de produtos praticamente da OpenAI. Ela está falando ali com o board, falando com os líderes, indicando para eles seguirem em um caminho um pouquinho diferente, mudar a estratégia da empresa para focar,
também em programação e nos clientes corporativos, que é uma coisa que a Antropic começou a fazer mais de um ano, um ano e meio atrás, com os modelos Cloud, focando na galera de programação, na galera corporativa com integrações com Excel, com PowerPoint, pacote Office e outras coisas nesse sentido. E a FidCimo fala, olha, isso de lançar muitos produtos ao mesmo tempo gera o bafafá, gera a discussão, mas ao mesmo tempo dificulta a priorização do que vai importar mesmo para trazer dinheiro para a empresa.
vamos focar em uma coisa só, ou pelo menos trazer todo o foco estratégico para isso, para a programação, para o cliente corporativo, evitar as sidequests e focar na produtividade para o mercado empresarial. E aí a gente meio que vai acabando com o SaaS. É isso que ela quer fazer, que tem tudo a ver com a notícia que a gente falou agora há pouquinho, de você parar de focar em várias coisas e trazer tudo para uma aplicação, para um aplicativo que vai fazer tudo. Tem tudo a ver com isso aqui,
a Feed Simmons está tentando mudar a ideia de para onde a empresa vai ir. Isso é uma coisa que a gente trouxe aqui faz um tempo, sobre como a OpenAI tinha tanta, tanta, tanta, tanta, tanta iniciativa que eles não conseguiam concentrar numa coisa só. Eles veem uma ideia e falam, quero fazer também, quero fazer também, aponta para todo lado. Isso dispersa, claro, a equipe. E uma dessas coisas que eles estão colocando aí na pausa, a gente falou semana passada, é aquele modo adulto do GPT para falar sobre temas adultos, usar como namoradinho, namoradinha, etc. E a gente já viu gente sair da OpenAI,
concordou que isso ia virar mesmo um produto, e nessa semana saiu até uma matéria falando que internamente até, o pessoal lá fala assim, que esse é o, é uma coisa horrorosa, tá? Mas fala que esse é o coach de suicídio sexy, porque é tão, assim, tudo de errado que tem que o LLM fazer, eles investiram uma coisa só pra fazer isso, então até lá dentro, o pessoal nem leva a sério isso como uma iniciativa mesmo, e, bom, já tá na pausa, e agora é que a Fidicimo falou, gente, foco,
E também essa parte corporativa, pode esperar que não deve sair tão cedo isso. Eu fico curioso para ver como é que vai ser essa Open AI focada no B2B, business para business, porque ela ainda é meio que a língua franca dos produtos de A para consumidor final. É interessante que ela vai deixar uma abertura enorme para outras empresas focarem no consumidor final. Ela não vai abandonar para focar no business. Mas, de novo, é uma divisão de foco e com a liderança falando, gente, business, business, business.
vai ter mais produto pra isso. A gente pode esperar nos próximos X meses aí do que de consumidor final. O consumidor final pode ser só um... O lançamento pra gente é feito colateral. O que foi no Antropic, né? Efeito colateral do lançamento pro público corporativo. Mas é interessante ver essa nova identidade de negócios da Open AI. Isso me lembrou aquela apresentação do... Como é que era o CEO lá da Microsoft por um tempo? Que era developers, developers, developers, developers. Ah, sim. É, é, é. Ah, eu vou colocar na descrição esse vídeo que é muito engraçado. O Steve Ballmer, ele sempre quis
Esse é comediante. Ele era o engraçado... Eu vou colocar alguns links na descrição. Tem um que é do vídeo de lançamento, acho que do Windows 3.1, se é que faz sentido isso. Ele parece um vendedor de colchão ou de carro, bem caricato dos Estados Unidos. Quanto você acha que vale isso? Tem paciência? Tem relógio? 200 dólares? 300 dólares? Não! E joga dinheiro pra cima. Cara, é uma vergonha. Ele era o... Ele teria sido ou apresentador de TV ou youtuber, se fosse outra...
em outras épocas. Ah, Balmer. Hoje ele é dono, ironicamente, do Clippers. O Microsoft Clippy, ele é dono dos Clippers lá do time de basquete nos Estados Unidos. Indo agora pra Anthropic, a primeira notícia de novo tem a ver com OpenClaw. Tudo que a gente falou, acho que nesse mês e meio que passou, Marcos, quase tudo tem alguma perninha ali dentro do OpenClaw. E esse aqui, eles lançaram uma nova ferramenta, uma nova funcionalidade ali do Cloud Cowork, que, craque, não conhece,
conhece, recomendo muito que conheça, é basicamente um software que você instala na sua máquina e você consegue usar ali como se fosse o Cloud Code, só que com uma parte visual um pouco mais amigável. Então, parece um programa de Windows, um programinha de Mac, que você vai usar normalmente ali com a interface, em vez de você ter que ir lá no terminal com a tela preta e o cursor piscando e tudo mais, que assusta muita gente. Mesmo muita gente que é programadora.
Mas aí o Cloud Cowork, que é essa parte mais visual, mais bonitinha, agora ele vai ter a ferramenta que chama Dispatch. Está disponível por enquanto, só em prévia, mas é basicamente para você conseguir interagir com o seu Cloud, com o seu Cloud Cowork, que vai estar rodando na sua máquina, mas você consegue acessar ela a partir do seu celular, a partir ali do seu Telegram, por exemplo, ou principalmente do seu aplicativo do Cloud, que é a parte mais importante. Você instala o aplicativo do Cloud no seu celular.
você tem o Cloud Coworker rodando na sua máquina, e aí você sai de casa e consegue mexer na sua máquina, continuar trabalhos, pedir para ele entrar naquela pasta e pegar o PDF e fazer um resumo para você, porque você está no meio de uma reunião e você se esqueceu de trazer isso, você está no meio da rua, num táxi, em alguma coisa assim, tendo essa sincronia, executando o código localmente também, deixando qualquer arquivo que precise ser usado estar na sua máquina, só que claro, para fazer alguma alteração um pouco mais importante,
relevante, ele vai pedir a sua autorização. Ou seja, ele tenta ser um pouco mais seguro do que é o OpenClaw. Ele tenta ter um pouco mais de barreira de guardrails. Mas todas as empresas estão fazendo isso. A Antropic, agora com o dispatch, é só mais uma delas. Só que lembra, como você tem que estar com isso rodando o tempo inteiro, para você ter acesso à sua máquina, a sua máquina tem que estar ligada o dia inteiro, 24 horas. Se você quiser ter acesso, 24 horas.
Senão, você vai ter acesso só enquanto ela estiver ligada. Lembrando que o OpenClaw, para fazer isso, você podia fazer também na sua máquina, ligado o tempo inteiro. Ou você podia deixar ligado um VPS, um servidor privado virtual, que você contrata por 2, 3 dólares. E aí você conseguia fazer essa interação 24 horas por dia. Por enquanto, ele está disponível só para usuários do plano Max, que é aquele plano mais caro de 200 dólares por mês. Acho que agora está mais barato, está 100 dólares por mês, na verdade.
mas também nos próximos dias eles prometeram chegar pro plano PRO, que é o plano ali de 20 dólares por mês. Muito legal essa ferramenta. Uma primeira notícia aqui. Outra notícia importante e rapidinho aqui da Antropic é que o contexto, ali a sua janela de contexto de conversa com o Claude, agora ele vai ter um milhão de tokens disponível pra todo mundo ali, modelos Claude Ops 4.6, modelos Claude Sonnet 4.6 também, na plataforma online do Claude.
mantendo ali a cobrança que ele vai pagar normal. Você não vai ter uma taxa a mais por usar o contexto longo, que era uma coisa que eles estavam fazendo por algum tempo. A OpenAI também fez isso por algum tempo. Se é mais de 200 mil tokens, você gasta um pouquinho mais. Agora não. Tudo certo. Ampliaram também o limite de mídias que você pode usar a cada solicitação, a cada prompt, para 600 imagens ou páginas de PDF. Só que, claro, isso aqui também é para usuários pagos. Por enquanto,
para usuários dos planos Max, Enterprise e Team do Opus 4.6. E ali eles também falaram que junto com isso o Opus deu uma melhoradinha na precisão, na acurácia para contextos longos. Basicamente coisas de agulha no palheiro, de needle na haystack. Esse teste para ver se ele acha uma coisa muito detalhada em um contexto gigantesco de 1 milhão de tokens. E também um benchmark específico que é o MRCRV2 para ver isso daí.
de milhares de páginas e vê se ele consegue encontrar informações. Deu uma melhorada, agora está em 78% de acurácia para essas coisas absurdamente gigantes. Então, notícias ótimas vindas da Antropic. E um levantamento que a Axios repercutiu essa semana é que Antropic tem hoje mais ou menos 73% de todo o gasto de empresas comprando ferramentas de IA pela primeira vez. Então, volta aqui o papo do mercado corporativo e uma segunda parte
surpreendeu. Em janeiro, era 50-50. OpenAI Entropic. Agora, a Entropic conseguiu aumentar metade desse valor, então está com quase 75%. E isso, empresas de IA comprando IA pela primeira vez. Soluções disso. Então, deu para ver que esse boom de popularidade da Entropic não ficou reservado só ao público final. O lance do Pentágono, a gente vai falar que ia seguir, inclusive, o que aconteceu nessa semana, mas eles conseguiram dar uma distanciada boa.
da OpenAI, me surpreendeu que era 50-50 até recentemente, que eu chutaria que a Entropic seria mesmo mais usada. Mas está aí, estão conseguindo muito aumentar essa vantagem sobre a OpenAI e sobre a treta do Pentágono, algumas notícias também. Teve mais coisas de bastidor nessa semana e mais o Pentágono, o departamento de defesa, justificando de um jeito muito estranho essa designação da Entropic de ser uma empresa que oferece risco de cadeia de suprimento, porque a Entropic não topou
ajustar um contrato que ela tinha com o Pentágono para permitir que o governo use dados comprados para fazer vigilância doméstica de pessoas nos Estados Unidos e também usar os modelos da Antropic para ser o modelo de base de armas letais. Antropic falou, gente, não está pronto para usar isso ainda e a partir de espionar cidadãos, não. E o Pentágono falou, não, a gente tem que usar você como a gente quiser. Antropic falou, então, puxa, então eu não quero. E o Pentágono, em vez de ir atrás de outra empresa, falou, não,
Sim, você vai fazer o que eu quero, o que eu mando. Aí fez essa... puniu a Antropic como uma empresa designada como de risco de cadeia de suprimentos. E a Antropic abriu dois processos para tentar uma liminar para pausar, pelo menos até o fim do processo ela não ser designada. Por isso que ela pode começar a perder contrato. Empresas do governo, associadas ao governo, Lockheed Martin, por exemplo, não podem usar a Antropic porque ela está associada ao governo, então não pode usar. É todo um bafafá, né?
Antropic como risco de cadeia de suprimento porque eles estavam preocupados que a Antropic podia desligar a tecnologia dela se o Pentágono cruzasse essas linhas vermelhas de espionagem e também de armas letais usando os modelos da Antropic. E eles falaram que era uma coisa que criava um risco inaceitável de cadeia de suprimento e o segundo argumento, esse Fabrício me ajuda, o Pentágono falou que o uso de funcionários estrangeiros
incluindo da China, é um risco de segurança nacional. Mas é diferente das outras empresas todas que também usam chinesas, porque... motivos, não sei. É diferente. Exato. Se você vai designar empresa que tem chinês trabalhando, empresa de água que tem chinês trabalhando com risco de escadeir de suprimento, cara, sinto muito. No Vale do Silício, é até cômico pra não dizer bizarro, pra não dizer triste, sei lá, porque você olha,
Os papers publicados pela OpenAI, pelo Google, pela XAI, por todas, todas, todas essas. É tudo os nomes lá, né? Wang, Li, é tudo chinês. Mais da metade dos nomes nos papers são nomes de origem chinesa. Podem ser americanos, de origem chinesa, mas muitos não são. Muitos são chineses da China, que vieram ali, fizeram um PHD nos Estados Unidos e continuaram ali trabalhando no mercado,
sempre foi e, em teoria, até ontem, a gente pensava que sempre será o que sempre seria. Mas isso é uma desculpa. Eu não sei quem que teve a cara de pau de colocar isso num relatório oficial do governo. Tudo bem que a gente não espera muita coisa, mas isso é um nível tão absurdo que eu não tenho nem palavras pra dizer isso, porque não é nem xenofobia, não é... Simplesmente não faz o menor sentido porque todas
empresas de IA, e não só de IA, todas as empresas do Vale do Silício, elas se beneficiam disso, de trazer galera top, não só da China, da Índia, da Europa, da América do Sul, brasileiros, argentinos, trabalhando lá nessas empresas. A gente tem o nosso grande amigo, o André Saraiva, já participou aqui do podcast, trabalha na OpenAI há muito tempo. A gente tem amigos na Google, na DeepMind, trabalhando, que também já estiveram aqui no IA Sobre Controle, na própria Antropic. Então você vir com essa historinha,
desculpinha de, não, é porque tem funcionários estrangeiros, principalmente da China, é o risco de segurança nacional. Isso é, cara, chega, próxima. A gente já entrevistou aqui, inclusive, o doutor Yu Han Zhao, que fez o TIF, lembra? Aquela IA que detectava câncer, com até 97% de precisão. Que tá lá na Harvard, né? Você tava trabalhando, fazendo pesquisa na Universidade de Harvard. Exato. Então, é, é o famoso vai que cola, né? Enfim,
O nosso amigo do podcast, Randall Balestriero, que a gente entrevistou nessa quarta-feira, francês, trabalhando lá na Meta, fazendo pesquisa em uma arquitetura do JEPA, que pode ser a arquitetura que vai levar a gente até AGI. Ou esquece o papo de AGI. É uma pesquisa muito interessante de arquiteturas que está evoluindo na área de IA, que também o ex-chefe dele é outro francês, Yann Lecan, Godfather of AI,
ela trabalhou desde os anos 80 nos Estados Unidos, um dos principais caras que desenvolveu as redes convolucionais, ganhou prêmio Turing por desenvolver tudo isso. Então, puta que pariu, sério. É, e pra passar régua nesse assunto, a Anthropic tá tentando resolver isso como adultos fazem, conversando, ao invés de correr pra mídia e tentar fazer o show, né? E eles tiveram reuniões a portas fechadas nessa semana com o Departamento de Segurança Nacional dos Estados Unidos pra discutir assuntos, incluindo, por exemplo,
poder fornecer a tecnologia para empresas estrangeiras. E é uma coisa que até tocou pouco na briga, de acordo com as fontes. O pessoal participa da reunião e depois usa para a imprensa. E o assunto do Departamento de Defesa até foi pouco tocado, foi discutido, mas é a Antropic tentando de uma outra forma, primeiro, ter um canal aberto de comunicação. E o Departamento de Segurança Nacional, de Homeland Security,
americana, e eles tentando fazer amigos ali pra ter algum tipo de apoio, suporte, se a briga com o Pentágono fica pior ainda, então eles estão discutindo esse assunto, sobre a exportação da tecnologia deles pra outros países, deve ter entrado aí parte de países que são potencialmente adversários, tem toda uma conversa sobre a China, que a gente vai falar aqui mais pra frente no episódio, então eles estão se mexendo, né, mas ao mesmo tempo viram um espetáculo público com essas notícias absurdas que a gente vê vazar também. Chega! Chega!
Indo agora para o Google, a gente tinha aqui os dados, o pessoal falando muito sobre, putz, agora que está todo mundo usando o IA, os números do Google Search, da busca do Google, vão cair absurdamente, do Bing e tudo mais. E aqui no Brasil, o CAD tinha aberto um inquérito para pesquisar sobre isso, principalmente também a questão do uso das AI overviews, aquela visão geral de IA ali em cima do Google, se iria isso diminuir o fato das pessoas acessarem
os sites. Então ela já tem o resuminho ali na visão geral de IA no topo, então ela nem abre mais o site. Que na minha opinião, a resposta é sim. No meu uso diário, eu já praticamente não abro sites e eu fico até muitas vezes bravo que eu tenho que abrir o site que não vem ali a visão geral de IA do Google. Se eu vou buscar, sei lá. Fiz isso hoje, inclusive pela manhã. Puta, como é que é mesmo aquele comando ali de Linux pra renomear uma pasta e tudo mais?
eu botei ali e ele não me mostrou a visão geral. Eu fiquei buto. Falei, putz, eu tenho que agora clicar no site, pesquisar ali naquele histórico. Fazer os incas. Exato. E o pessoal, para otimizar para SEO, sempre faz aquilo. A história do comando de renomeação do Linux. Cara, eu só quero o comando. E aí eles, o CAD, pesquisou. O CAD abriu esse inquérito com o Google e o Google falou, não, na verdade, não são,
os resumos de IA que estão causando a queda de tráfego nos sites de notícia do Brasil. Na verdade, isso é porque o público está migrando para plataformas de vídeos curtos, como o TikTok, como os Reels do Instagram, como o YouTube Shorts e tudo mais, e o Google, por causa disso, pediu a arquivação do inquérito. Eu acho que é meio que, tipo, sim, tem esse fato, muita gente está migrando para esses aplicativos, mas, inclusive, para esse tipo de pesquisa.
ou três anos, o pessoal usando TikTok, geração Z, geração Alpha, até na verdade, usando o TikTok do jeito que nós, os Incas, usávamos o Google, para pesquisar informações online, o que a gente usava o YouTube também, muitas vezes, eles usam o TikTok para saber, sei lá, como é que trocar a resistência do chuveiro, coisas nesse sentido. Então, tem a ver, sim, mas também tem a ver com a questão dos resumos de A na minha experiência anedótica aqui.
Mas, enfim. Agora, lá no Reino Unido, o Google está rolando um outro bafafá sobre usar os dados, aquilo que a gente já viu sobre o mercado e gostar de usar os dados para a IA, especialmente se vai te substituir. Que é muito desse assunto que a gente acabou de falar sobre os veículos brasileiros. Mas no Reino Unido ficou decidido que os sites vão poder ficar de fora da resposta que foi usada com IA.
Primeiro, eu, o Google, falar se você quiser ficar fora da IA, o azar é seu, você vai perder visibilidade. E os sites falam, mas eu já perdi visibilidade se eu estou na ferramenta de IA, porque a pessoa não entra no site. É o que o Fabrício acabou de comentar. Então, por lá, pelo menos por enquanto, vai dar para o site fazer um opt-out ali e não ser utilizado para poder, se a pessoa quiser passar do resumo de IA ali por cima, o site ainda assim aparecer e as pessoas irem lá para o site, ao invés da resposta ser extraída e entregue lá no Google. E aí,
Search Labs lá, sem qualquer tipo de chance do usuário passar dali, porque a resposta vai estar lá, já, de como trocar a resistência do chuveiro, pegando esse exemplo. Sim. E agora, nos Estados Unidos, o Google aumentou a abrangência daquele serviço de Personal Intelligence pra todo mundo, inclusive galera que tem plano gratuito do Google, que aí você vai poder personalizar o seu AI Mode ali da busca, no seu Gemini, no Chrome, no aplicativo também, pra conectar no seu Gmail, no seu Google Photos,
no YouTube, fazer perguntas sobre isso, pedir contextos. Ele vai conseguir utilizar o seu contexto de toda a sua conta para te dar resumos, para te dar recomendações de compra, suporte personalizado para você. Isso, por enquanto, como eu falei, nos Estados Unidos, mas imagino que em breve em outros países também. Outra rapidinha aqui, eles anunciaram lá o Google Labs, que é uma plataforma onde tem um monte de projetinhos interessantes que você pode ativar ali na sua conta.
Stitch, que é para você usar para fazer design. Então, basicamente, você consegue utilizar IA para, talvez, criar uma interface muito fiel com o design do seu site, da sua marca, do seu mercado, num sentido que eles chamaram, tentaram cunhar o termo Vibe Design. Então, você vai ali usando a IA para trabalhar em cima de um design, um design system, por exemplo, mas você pode utilizar a partir de uma coisa que já exista, seja uma coisa do
mundo que já exista, mas uma coisa sua mesmo, o seu site, a sua marca ou algo nesse sentido. E ali eu acho que até a parte mais interessante, eles estão pegando essa ideia mais ampla dos agentes, que veio muito do Cloud Code, aquele arquivo agents.md, do Markdown, que você tem ali basicamente um monte de regras que você passa para o seu agente, para o que ele vai ser, a persona que ele vai ter, ou as skills também, as skills.md são várias engenheiras de prompts para tarefas específicas
que você passa para o seu agente, eles também falaram que você vai poder ter um design.md que você vai poder reutilizar entre vários agentes aqui de design nesse conceito de vibe design. Achei bem interessante a ideia. Para quem se interessar, o link está aqui na descrição para testar. Boa. E internamente, a gente vai ver algumas notícias sobre isso. Hoje, a primeira é do Google. Na verdade, a primeira foi da OpenAI, né? Mas que o Google também vai reformular uma parte de uma divisão para ter mais foco no que vai valer a pena
no fim das contas. Existe, eles anunciaram ano passado na Google I.O. o Project Mariner, que era essencialmente uma versão ainda mais parruda e mais agêntica do agente de navegação web para rodar, navegador e buscar as coisas, visitar o site para você, etc, etc. E eles estão tirando o pessoal disso, recursos disso, para poder dar foco em outras iniciativas, incluindo uma espécie de concorrente do OpenClaw. Então, eu tenho notado, Fabrício, eu não sei o que você acha,
que esse lance todo de navegadores agênticos parecia uma boa ideia. Eles lançaram, deu traço, em parte porque eu falo que é tipo mudar de país e mudar de navegador. Então o Chrome vai começar a absorver isso aos pouquinhos, mas mesmo assim não é o formato. Enquanto o OpenClaw, que ele faz muita coisa agêntica, incluindo navegação, isso parece ser um pouco mais relevante para o público, tanto que o OpenClaw explodiu em popularidade.
o Google tirando projetos, tirando recursos do Project Mariner para investir em uma coisa que vai ser mais abrangente. A gente fica muito mais parecida com o que é o Open Claw. Vamos ver. Google I.O. vai rolar em maio. Vamos ver o que eles vão apresentar. O Project Mariner Dromen. Eu sempre brinco, né? Que Google I.O. é tipo a CES do Google. Cada três minutos é um projeto novo que você fala, mas já não tinha isso. Eles falam, tinha, agora tem dois. O que já não tinha, não tem. Aí dá seis meses, ninguém nunca ouviu falar. É uma confusão. Mas tentam. Eles tentam.
lembra do Bard? Uma hora eles acham. Os 28 mil produtos de conversa que o Gol já lançou e matou aí junta e separa e incorpora. Então não é uma grande surpresa eles fazerem isso. Se é para errar, é rápido. É aquele lance todo. Então está aí. Para quem estava esperando eles investirem mais em navegação agêntica, isso vai morfar para uma outra coisa agêntica que vai incluir navegação. Mas Project Meritor, aparentemente, is no more. É uma coisa que eles fazem também com muita frequência de abandonar os projetinhos deles.
eles abandonaram inclusive essa semana o Firebase Studio, que eu lembro que a gente gravou uma imersão aqui da Alura, ele antes se chamava Projeto IDX, é sempre Project Alguma Coisa, e eles lançam com esse nome horrível de Project Alguma Coisa, e depois eles mudam, mudam o nome, mudam tudo, eu lembro que a gente gravou essa imersão de Flutter, que é uma linguagem de programação mobile, quando chamava Project IDX, e aí entre a gravação e a edição, publicação, eles mudaram tudo, mudaram
a interface, mudou o nome pra Firebase Studio. Pelo menos, não mudou a usabilidade. Então a gente conseguiu gravar um patchzinho em vídeo, assim, falando, ó, galera, agora, sempre que a gente falar projeto IGX, agora chama Firebase Studio, não sei o que e tal. E agora eles fecharam essa semana o Firebase Studio depois de, sei lá, um ano, um ano e meio depois dessa mudança, seguindo a regra de coisas que eles basicamente lançam e ignoram.
que agora eles lançaram uma grande atualização do nosso querido, amado, idolatrado Google AI Studio. Uma grande ferramenta do Google para quem quer utilizar modelos, fazer testes, tanto modelos de texto, modelos de vídeo, de áudio. Eles têm tudo ali no mesmo lugar. Você consegue gerar a sua API Key. É a base para você gerar API Keys e usar com os seus modelos geminais nos seus projetos.
deram ali no Google AI Studio, introduzindo o agente do Antigravity, para você fazer uma programação, um Vibe Coding agêntico, só que ele consegue, por exemplo, abrir um browser, abrir uma aplicação. O exemplo, inclusive, que eles dão ali é você criar um joguinho do zero e você consegue jogar o joguinho dentro do próprio Google AI Studio. Então é bem, bem, bem legal mesmo essa atualização que eles fizeram. E, além disso, outras coisas. Consegue integrar com o banco de dados, consegue fazer autenticação.
Firebase Studio meio que já não é mais tão necessário no mundo de Vibe Coding. Foi basicamente essa a ideia que eles trouxeram. Eles estavam gastando recursos para uma coisa que provavelmente não estava sendo muito utilizada e que cada vez menos seria utilizada. Lá no Firebase Studio ele tinha o autocomplete usando o Dimini, você podia usar ela dentro, só que agora você usando tudo a partir só do Google Air Studio, você faz com Vibe Coding e não precisa mais programar na mão, fazer as coisas. Ele vai também ter
o acesso ao seu projeto inteiro usando esse agente que eles integraram ali no Google Studio, numa pegada bem de agente de codificação mesmo, que eles mais ou menos já tem dentro do Google Collab, mas ali no Collab é pra Jupyter Notebook. Aqui é pra projetos normais, projetos de código de várias bases de código, vários arquivos e tudo mais. Você consegue fazer edição, mexer no código, enfim. Gostei muito da ideia. Se você não deu uma olhada, vai lá testar hoje.
Boa. E para finalizar a parte do Google, nessa semana foi lançado lá no Alphafold Database um pacote de dados de complexos proteicos, com milhões de complexos proteicos, com um foco específico em saúde e doença humana para tentar avançar ainda mais rapidamente, descoberta de medicamentos, de tratamentos, essas estruturas... Bom, o nome já indica um pouquinho, mas é diferente das
pequenas proteínas menores que já estavam lá mapeadas e previstas, todo o lance do AlphaFold é aquela previsão 99.999% perfeita e precisa sobre a dobra proteica, como uma interage com a outra, que levava meses pra fazer uma, hoje dá pra fazer em minutos. Meses não, anos às vezes até. Muitas vezes era um ano, ou era o doutorado inteiro, quatro anos pra você descobrir a dobra exata daquela proteína. O que eles fizeram com isso é maravilhoso e recomendo
muito, muito, o melhor filme, o melhor documentário, o melhor tudo do ano passado, que foi o The Thinking Game, lançado no canal de YouTube da própria Google DeepMind, que explica meio que a história da empresa, do Demis Hassabis, mas também desse projeto do AlphaFold, que deu o Oscar de química pro Demis Hassabis e pro John Jumper lá da DeepMind. Pô, e agora pra quem trabalha com isso, já tem mais alguns milhões, milhões de proteínas, de complexos proteicos e estrutura disso pra vocês poderem dar uma espiadinha.
Isso muda o ponteiro, isso muda a ciência. É sempre de aplaudir de pé o trabalho que a DeepMind fez com isso. Mas indo agora pra meta, são duas notícias rapidinhas aqui. A primeira é meio que... Olha a surpresa, Marcos. A meta vai reduzir gradualmente o uso de moderadores humanos ali nos sistemas deles, que são terceirizados. Você está surpreso com isso? É, a meta é aquilo, né?
esgotadas todas as outras alternativas. Então faz completo sentido. Mas por que eles vão fazer isso? Porque agora eles vão colocar sistemas de IA para identificar e revisar conteúdos, remover conteúdos que não respeitem as regras ali no Facebook, no Instagram e tudo mais. Eles falam que os modelos de IA generativas já estão melhores do que os modelos anteriores ali de detectar golpes, perfis falsos e tudo mais. Essa transição vai ocorrer aí ao longo de alguns anos.
mas é uma tendência já, então quem trabalhava com moderação, isso aí pode já começar a atualizar o LinkedIn, porque vai chegar ali o chicote, pelo menos dentro da meta, mas eu acho que pode chegar, pode não, vai chegar em outras áreas também, isso sem dúvida alguma, e isso não é eu sendo mal aqui falando, é mais um conselho de amigo, não fique dependendo de empresas como a meta, ou de trabalhos como moderação, como uma carreira para o futuro,
a médio prazo ou a longo prazo ou mesmo a curto prazo hoje em dia, porque esses sistemas vão sim ser aplicados na maioria das empresas. Só que lembrando isso, a gente falou acho que na semana passada, retrasada, que alguma líder lá dentro da meta, eles fizeram um relatório falando que não estava legal os sistemas de recomendação dentro ali do Instagram, do Facebook, que eles não estavam bons o suficiente, que precisava mais de humanos no loop, no processo. E agora, literalmente,
uma ou duas semanas depois, eles falaram, não, vamos fazer o contrário do que o relatório indicou a gente pra fazer. Mas não esperava nada diferente disso. E tem uma questão que a meta... Esse é um assunto, e esse eu falo de uma forma não irônica, que é um problema difícil de resolver, essa parte de moderação. Sim, daria pra resolver se fizesse direito, né? Mas o que acontece? A meta contrata pessoas, geralmente são em países africanos com bem poucos recursos, contratam batalhão de pessoas lá pra pessoa passar o dia
inteiro revisando casos de conteúdos que são sinalizados como abusivo, criminoso, e a pessoa passa o dia inteiro vendo vídeo de violência, vídeos de sexo, vídeos de racismo, e elas deveriam ter um acompanhamento até psicológico que existe meio só pra cumprir tabela ali, são pessoas que depois elas passam, imagina, dois, três anos, todos os dias da sua vida vendo isso, com diversos tipos de transtorno
estresse pós-traumático, e a meta já foi processada algumas vezes por isso, e o que a meta faz, na verdade todas as empresas, estou falando a meta aqui porque eu sei desse caso específico, vou deixar na descrição, mas o que geralmente acontece é o seguinte, o país fala, a gente vai começar a regular essa atividade, a meta fala, é? Então tá, eu vou para o seu país vizinho aqui que não tem regulação, você quer perder esse monte de emprego mesmo? E fica por isso mesmo. Então ela migrar para fora da moderação feita com humanos para fazer moderação feita por IA,
olhando de dentro da meta, faz sentido. Fica menos exposta a processos, a ter que gastar com isso, a ficar responsável pelo transtorno psicológico das pessoas, como dá sentido. Mas é aquilo, a gente acabou de falar. A tecnologia está pronta para isso? Veja bem, eu não sei. Vamos tentar, a gente vê o que acontece. Quem sofre com isso são as pessoas ou que são abusadas na web ou fica mais fácil de você distribuir conteúdos como de abuso infantil, etc.
É um vespeiro, tá? Mas a meta fazer isso, tentar fazer isso agora não surpreende, mas é aquilo que a gente já sabe exatamente como é que vai, uma semana, duas, vai ter caso que vai ser exposto. É o caminho, né? A meta sempre faz a coisa certa, esgotar as outras alternativas. Ela está no período de alternativas agora. E uma última aqui deles, a segunda e última, foi que teve um incidente interno. Eles revelaram que um agente de IA, com credenciais válidas, conseguiu meio que contornar os controles de identidade ali dos sistemas,
meta e expor alguns dados privados, dados sensíveis da empresa pra alguns funcionários que não tinham o tier, o nível de top secret autorizado. Eles tentaram, não sei, talvez tentaram utilizar o Lhama 4 pra fazer ali rodar esse agente, mas basicamente, não, eles falaram na verdade que foi por causa da autenticação, o agente ele tava operando dentro das permissões certas, legítimas, só que aí ele executou algumas ações indevidas e não
tinha o mecanismo para validar a intenção ou para interromper o comportamento naquele minuto. Ou seja, ainda é arriscado você rodar agente, sempre é e sempre será. Como é arriscado você rodar software? Você precisa do time de cyber, você precisa de constraints, você precisa de guardrails e tudo mais. Mas com os agentes executando autonomamente, a gente tem mais uma superfície de ataque possível para pessoas mal intencionadas, ou até em muitos casos como foi esse, não eram nem pessoas mal intencionadas,
tentando usar o agente interno da meta, que por acaso teve acesso a dados que ele não teria normalmente, que ele não teria a liberação normal. Então, fiquemos de olho, se você trabalha com isso, preste atenção em como você está implementando seus agentes internamente na sua empresa. E hoje tem o cantinho, o cantinho não, o cantão da NVIDIA, porque teve o evento anual dela de desenvolvimento nessa última semana, anunciou um monte de coisa, algumas legais, algumas que trouxeram polêmica,
ter polêmico, né? Mas eu vou começar com as que não são polêmicas, que são mais seguras de falar agora. Ela falou que ela tá lançando... Existe o GROC com Q, que não é o GROC com K do Elon Musk. Esse GROC com Q, eles tinham a parte de software e hardware, na verdade, pra inferência de IA, de modelos, etc. E a NVIDIA anunciou a NVIDIA GROC 3 LPX, que é um rack de servidores pra fazer inferência. Tem 256 GPUs, LPUs, na verdade, né? GROC 3,
8GB de memória RAM direto ali no chip e vai ficar disponível a partir da segunda metade desse ano. Isso é resultado, a gente tinha visto recentemente que a NVIDIA fazer um investimento e colar meio ali na GROC, ia ser quase uma compratação, mas se comprar, pega mal, né? Mas eles estavam colando ali na GROC e eles vão começar a vender, até se preparar, para vender chips GROC para o mercado chinês, porque tem todo esse lance do abonimento de exportação, vai ter notícia já já sobre isso também,
ela deve conseguir voltar a vender para lá, mas ela está esperando começar a fornecer isso já em maio e esses chips não vão ser limitados de propósito por conta de restrições e bloqueios comerciais. Não sei como eles vão fazer isso, mas eles falaram que vão vender dessa forma. E junto disso, eles deram mais detalhes sobre um chip do Grock que foi especificamente desenvolvido para acelerar tarefas de IA envolvendo codificação.
A gente partiu de dar para programar usando esses modelos, para modelos feitos especificamente para programar, melhorando a partir disso, agora um chip feito para o modelo de programação rodar para ficar melhor ainda nisso, todas as pontas desse desenvolvimento para programação. Então a gente ainda está vivendo só o começo desse negócio, apesar de hoje em dia já ser possível. O Felipe Lauer, abraço, ele sempre fala a respeito disso, de como pelo menos na Enter e certamente em outros lugares também já está substituindo
parte do código é feito hoje com a IA e as pessoas vão guiando e de olho nisso, vão ajustando. Então agora com toda a verticalização desse processo inteiro de desenvolvimento de IA agêntica codificada existindo, vai ficar mais eficiente ainda. Bem interessante, mas esse foi um dos anúncios que pintaram, um pacotinho de anúncios ligados ao GROC com Q que pintaram na GDC nessa semana. O que mais teve? Nessa ideia aí do GROC 3 LPX, eles estão expandindo a plataforma da Vera Rubin, que é o estado
arte hoje para esses hacks de GPUs, basicamente, a gente tinha as GPUs H100, que eram os modelos Hopper de GPU, depois a gente foi para os B100, B200, que é o Blackwell, e atualmente é o Vera Rubin, que ele usa o Blackwell ali no meio, mas ele tem o hackzinho. E aí, a expansão da Vera Rubin foi com 7 chips e 4 novos hacks, especificamente para a data center, incluindo esse aí que o Marcos mencionou, mas também o Vera CPU Hack, Bluefield, Spectrum, várias
Além disso, eles sempre anunciam um monte de parcerias que eles fazem lá no GTC, uma delas foi a integração com a LangChain, para quem não conhece, talvez a primeira biblioteca que ficou famosa para você criar agentes, e é da mesma galera do LangGraph, eles criaram o LangGraph depois de criar o LangChain, e anunciaram uma integração com a NVIDIA para lançar uma plataforma empresarial de IA agêntica para desenvolver agentes em escala, monitoramento,
explorar, implantar, combinando todas as ferramentas que eles têm ali no ecossistema deles, do Langchain, Langraphy, Langsmith também é deles para observabilidade, monitoração, e Deep Agents com as tecnologias da NVIDIA, dos modelos Nemotron, o toolkit de agentes Nemo, os microserviços NIM e tudo mais, focado nisso daí. Plataforma empresarial, achei bem bacana, bem interessante também, eles estão fazendo muito nessa área. Eles também lançaram uma coalizão Nemotron,
que eles chamaram para desenvolver modelos abertos de IA, usando a capacidade da cloud deles, a cloud DGX da NVIDIA, para treinar modelos abertos usando a expertise da galera que está participando nessa coalizão, que é o pessoal do laboratório da Black Forest Labs, por exemplo, aquele alemão que lançou os modelos Flux, modelos open source de geração de imagens, da própria Cursor, da Langchain, da Mistral AI, na francesa, da Perplexity, da Reflection,
AI da Thinking Machines Lab, da Mira Murat, que saiu da OpenAI para lançar a Thinking Machines Labs, é meio que uma coalizão, vamos fazer tudo aqui, vamos fazer a parceria e tudo mais, mas Marcos, eu acho que o lançamento lá do GTC que mais fez barulho foi o, de novo, tem a ver com o OpenClaw, que foi o Nemoclaw, é basicamente uma versão empresarial, uma versão mais segura do OpenClaw, integrada lá no Agents Toolkit da
NVIDIA, que vai combinar essa plataforma aberta do OpenClaw com recursos de segurança, de privacidade, com guardrails, para ela poder ser utilizada ali em um uso mais corporativo mesmo. Também pode funcionar, você pode, em vez de usar os modelos GPT, Cloud, que eram os mais utilizados, ou mesmo os chineses, você pode utilizar também agora os modelos da própria NVIDIA, os modelos Nemotron, como o Nemotron 3 Super, que saiu na semana passada, a gente anunciou aqui, modelo totalmente aberto,
O paper deles é maravilhoso. Eles explicam tintim por tintim como foi feito o treinamento do modelo. Recomendo muito para quem está na área de pesquisa. Dá uma olhada no paper do Nemotron 3 Ultra. E agora você pode rodar ele também localmente ou numa nuvem, num cluster, porque ele é um modelo de 120 bilhões. Então ele é grandinho, mas ele é um MOE, é um Mixer of Experts. Então ele funciona com 12 bilhões ativos cada vez. Então dá para rodar com ele e a promessa é que ele funciona muito bem. Mas achei muito, muito interessante.
em Huang, o CEO da NVIDIA, com a lagostinha, que é o símbolo do OpenClaw, mas uma lagostinha mais estilizada, que eles estão trabalhando com esse projeto, que lembra, um projeto open source, o Peter Steinberger, que é o criador, ele vibe-codeou o OpenClaw, e aí em vez de ele continuar para desenvolver o projeto, agora ele deu o projeto para ser desenvolvido por uma fundação e foi trabalhar dentro da OpenAI para criar projetos agênticos, algo similar ao que seria um OpenClaw, talvez, mas todo mundo
Tudo que você está ouvindo falar de coisas entre muitas aspas inovadoras que aconteceu nos últimos dois meses ou um mês e meio veio por causa e a partir do OpenClaw e da ideia de agentes mais livres que finalmente foi possível por causa dele. É interessante porque todo o blá que a NVIDIA deu sobre o Nemoclaw foi que é um toolkit de agente seguro e privado com controles de segurança para ser usados em empresas.
indo atrás do segmento corporativo, que é um segmento que fica bastante exposto a esse tipo de coisa por motivos óbvios. A gente acabou de ver na China, principalmente, o governo falou, gente, para de usar essa empresa, vocês estão loucos, que empresa vai usar isso? Vai vazar tudo? A gente acabou de ver o negócio da notícia da meta, e teve também aquele caso anedótico lá, da líder de alinhamento da meta, que o OpenClaw começou a deletar os e-mails dela, falou, para, para, para, para, foi lá, tira do tomada, para ele parar de mexer. Então, isso focado para segurança e privacidade em empresas, mas ainda assim, ser agêntico no nível de um OpenClaw,
É uma iniciativa interessante. Vamos ver daqui a um tempinho o que vai acontecer. E vamos lá, né? O Fabrício falou que o Open Claw, o Nemo Claw, foi a notícia que mais chamou a atenção, concordo, mas a que mais polemizou, porque tem que ter polêmica, foi o tal do DLSS 5. É verdade. Que bagunçou a web, porque ele é um, basicamente, pensa no filtro, assim, o pessoal comparou com aqueles filtros de boniteza de Snapchat,
de Instagram, ele pega ali a imagem e dá um tratamento nela pra deixá-la mais hiperrealista, com mais detalhes. Hiperrealismo, eu lembro direto do papo que a gente bateu com a professora Paula Mastrobert, que falou, cara, o objetivo dessas coisas não é medir se é bom ou não pelo nível de hiperrealismo. Parece que tem foto, né? Dá pra você medir o quão bom é o modelo especialmente artístico com outras métricas do tipo, ele consegue fazer o que eu visualizo na minha cabeça pra entregar, né? O ponto é, a NVIDIA promoveu esse DLS
DLSS 5 como um modelo de renderização neural que adiciona efeitos de luz e textura fotorrealistas aos frames ali do game, já tinha o DLSS pra fazer um upscaling, não upscaling não, mas aumentar a quantidade de frames, quando o jogo entregava 30 você botava 60, 90 e com isso ele já preenchia com frames intermediários agora além de fazer isso ele também deixa a imagem com mais definição e prerrealismo, o problema
é que isso bateu em cheio na galera que fala em tudo. E outro problema, ficou meio feio. Porque eles mostraram esse filtro aplicado em jogos que as pessoas já conhecem. Eu acho que esse foi o problema. Então botar lá Harry Potter, não sei o quê. Os títulos que a pessoa já conhece, ela está acostumada com aquela estética. Ela olha para a personagem que está criada ali e ela foi criada mesmo tentando ser hiperrealista. Com o que a tecnologia permitia na época,
super realista, e a cabeça da pessoa preenche o resto, né? Que é o que a gente fazia o quê? Com o jogo de Atari. Pensa no jogo de Atari, jogando River Raid, né? A gente imaginava lá um avião lá em cima, voando por cima do rio e não sei o quê, Sequest, né? Submarino, pegando... Eu acho que pra uma boa parte da audiência você vai ter que explicar o que é Atari. Tá, vamos lá, né? Imagina, pensa no jogo velho que seus avós jogavam, meu Deus do céu, né? É tipo isso. Tudo bem,
com um somzinho, é o que dava pra dizer na época, e a nossa cuca preenche o resto. Você pega os Resident Evil de hoje em dia, que já tem uma estética que é muito mais próxima do hiperrealismo, ainda assim a nossa cuca tem que fazer menos trabalho, mas preenche o resto. Esse filtro, ele preenche pra você, e fica diferente do que você imagina no olho da sua cabeça, que é o hiperrealismo. Então, mudou a fisionomia, um pouco do aspecto de personagens, especialmente no Hogwarts, que chama Hogwarts alguma coisa, do jogo de Harry Potter, botou esse filtro, botou um rosto,
quase de verdade, de uma pessoa que é diferente do que imagina. Aí o pessoal rejeitou. E a mesma turma, eu brinco, a mesma turma que falava só, ah, tá com muito efeito especial em filme, filme hoje em dia é só efeito especial. É a mesma conversa, só que agora aplicado pra IA e pra jogos, o Jason Huang veio a público e falou, gente, para de torrar a paciência, é claro que os estúdios vão ter controle se eles querem ou não fazer isso, e não é esse caos tudo que vocês estão falando. Aí começaram a tirar sarro, pegava jogo nada a ver e botava esse filtro de boniteza, que eu acho que foi feito até não dando banana, pra mostrar como era ruim, né?
O ponto é, a NVIDIA lançou isso, as empresas que quiserem fazer rodar vão fazer rodar, e vai dar pra rodar isso até em placas que são menos parrodonas do que as gigantescas, que é o pessoal poder rodar em casa. Eu tava até conversando com o meu amigo no área de transferência essa semana, o Arthur de Vigir, que falou, existe uma questão que é a diferença até de renderização neural do jogo rodando na máquina do Fabrício e na minha, certo? Porque é quase como se fosse a generativa gerando ali o joguinho, então a fisionomia do personagem pode mudar um pouquinho
máquina para máquina, eu penso, mas já é meio assim, que se você tem placas de vídeo diferentes, entre computadores diferentes, a definição fica um pouco diferente, o efeito da água, do pozinho, da poeira, da luz, do não sei o que, se tem lá, o ray tracing, se não tem, mas o ponto é que placas iguais podem gerar resultados ligeiramente diferentes, mas eu ainda vejo isso como um não-blema. NVIDIA vive na dicotomia entre precisar depender, hoje menos, do negócio dela, do público gamer, que é o público que mais acorda todo
ia pronto para entender o negócio errado, para reclamar e xingar muito no Twitter. Então a gente viu isso tudo virar essa confusão toda. Mas o problema principal é que a NVIDIA fez isso com jogos que já existem. E eu acho que aí foi que ela errou um pouquinho na forma como ela apresentou. Mas vai ter os links aqui para vocês verem com os próprios olhos e sacarem o que é esse DLSS5 e por que talvez tenha incomodado tanta gente. Mas isso dominou muito as discussões, até afogou um pouco. Afogou não. Tirou o brilho um pouquinho do resto das coisas bacanas,
Isso também é, mas que a NVIDIA anunciou nesse ano. O pessoal achou a polêmica para se pendurar e reclamar. Com certeza. E uma última aqui da NVIDIA é que eles anunciaram também aí no GTC um acordo com a AWS, os servidores, os datacenters da Amazon, para vender um milhão de GPUs até 2027, iniciando as entregas agora ainda em 2026. E aí vai incluir os chips da GROC com Q também, que é para inferência mais rápida para IA,
chips normais de Blackwell, Vera Rubin e tudo mais. Então, NVIDIA vai muito bem, obrigado, eu diria. E pulando para o cantinho multimídia, eu vengo fazer rapidinho aqui, passar por umas notícias. A primeira, a gente tinha visto sobre um cara que tinha sido preso por acusação de ter criado milhares de contas de bots para fazer música, lançar lá no Spotify, etc., para ganhar uma grana com streamings. E por ter feito isso nesse nível, nessa escala industrial,
Isso foi acusado de ser fraude, etc. E ele se declarou culpado no processo, culpado de acusações de fraude, wire fraud, né? Fraude financeira, basicamente, e também de fazer uma conspiração ali pra tentar enganar as plataformas. E nessa escala que ele fez, né? De gerar músicas com IA, etc. Ele ganhou milhões de dólares ali em royalties, mas da forma que ele fez, feito pra enganar até, né? Como se fossem muitos artistas, etc. Não foi só uma manifestação de personalidades,
dele. Não é que nem poeta que tinha 4 ou 5 apelidos e cada um deles escrevia de um jeito. Então ele se declarou culpado. Esse processo não deve rolar, mas ele deve ser condenado. Outra coisa, a Gama adicionou ferramentas de IA generativa, de filtros e criação de IA generativa para tentar concorrer com o Canva e também com a Adobe. Então essa também é para quem mexe com essas ferramentas, eu não vou chamar pequenas ou menores, mas alternativas de geração. Agora o Gama tem isso.
que não está aqui, que eu não coloquei na pauta, mas eu lembrei, falando em Adobe. Nessa semana, eles abriram um beta público para você poder interagir com uma conversa, um turn-by-turn conversa ali, direto no Photoshop, coisa assim, para ele criar para você com filtro, com layer, com as camadas, etc. É um chatbot que eles colocaram lá agora, que estava como um beta privado, agora ele está abrindo uma lista para as pessoas se inscreverem e poderem testar. E uma outra coisa também que eles lançaram é um jeito de você mandar
de 10 a 60 imagens, uma coisa assim, para o Firefly, para treinar, não é treinar exatamente, mas para ensinar o Firefly como é que é o seu estilo artístico, para depois você poder usar o Firefly, que é a ferramenta de ar generativa de imagem de vídeo da Adobe, para criar imagens no seu estilo. Então, com a grossura de traço, a paleta de cores, tudo isso. Então, agora a ilustração, foto, também dá para fazer. Outra coisa, a Microsoft lançou o My, que é o Microsoft AI Image 2,
terceiro lugar no líder dos LLM Arenas lá. Esse específico de imagem está atrás do Nubanana e também do GPT Image atual. Está disponível já o My Image 2 lá no My Playground. Os detalhes estão na descrição. E essa eu vou passar a bola para o Fabrício. Jepa. Falamos de Jepa no comecinho do episódio. Nessa semana, Ian Lecan falou sobre o VJEPA 2.1. V ligado a vídeo. O que é o VJEPA 2.1, Fabrício? É um modelo de aprendizados
self-supervised, auto-supervisionado, usando essa arquitetura JEPA, que é pra, basicamente, imagens e vídeos, ele tenta resolver um problema, que é, tipo, ele tenta aprender as representações visuais pra capturar os detalhes locais, que é, tipo, contorno, profundidade, sem perder a compreensão da cena e do movimento. Se você quer saber mais sobre os modelos JEPA, sobre essa arquitetura, você vai escutar lá o episódio de quarta-feira que a gente gravou com o Randall Balestriero, dessa quarta-feira agora, que ele explica muito melhor,
isso, e já existia o VGEPA 2.0, já tinha sido publicado, agora eles basicamente trouxeram uma nova versão, que tentaram inovar ali na parte do treinamento, de fazer o modelo aprender com todas as partes da imagem e do vídeo, inclusive partes visíveis, não só partes ocultas, e aí eles aplicaram também supervisão em várias camadas da rede neural, ali tentando usar dados combinados de imagens e de vídeos numa escala um pouco maior. Então é basicamente uma continuação,
do VGEPA 2.0, aqui o VGEPA 2.1. Para quem quiser ver os resultados, o paper vai estar aqui na descrição. Boa, e finalizando o cantinho multimídia, entrando já no cantão da China, a ByteDance suspendeu o lançamento global daquele modelo de vídeo generativo C-Dance 2.0, depois de ter recebido um tsunami de cartas e de notificações extrajudiciais ameaçando processar por quebra de direito autoral, isso vindo da Netflix, da Disney, Paramount, da Warner Bros. no mês passado, porque era um modelo que era muito bom em criar
vídeos com atores de Hollywood, teve o que ficou famoso lá, que era a briga do Brad Pitt com o Tom Cruise, etc. Eles tinham já falado, tá, vamos parar de infringir diretorado aqui na China, ia lançar no resto do mundo, pausaram o lançamento do Sea Dance 2.0, então para quem estava curioso ou curiosa, vai ter que esperar mais um pouquinho. Agora, pulando direto de cabeça no nosso cantão da China, a gente estava falando do GTC, teve mais anúncios ali no GTC, que o Jensen Huang falou que a NVIDIA está reiniciando a produção
chips H200. De novo, é reiniciando de... É de Schrödinger, basicamente. Ele está e não está reiniciando ao mesmo tempo durante toda a vida. Notícias quânticas. Exato. Mas é para retomar a venda dessas GPUs H100. Lembrando, H100 já está, basicamente, duas gerações atrás, mas ainda é muito boa, é excelente, é muito utilizada para treinar e para fazer referência em modelos de IA. Mas a ideia é para retomar as vendas para a China, que tinha sido
proibido, depois a China proibiu, não queremos mais, porque o senador americano falou que queria botar uma backdoor ali dentro das GPUs pra ver o que que tá passando, o que que são os dados que estão passando, e a Nvidia falou que não ia fazer isso, e a China falou, não, não queremos mais comprar, vamos bloquear, vamos fomentar o mercado interno aqui com os chips da Huawei e de outras empresas, enfim, foi ruim pra todo mundo, no final das contas agora, meio que eles estão conversando de novo pra retomar essas vendas, e que
a produção que tinha parado foi retomada e para tentar competir, porque ela ainda é melhor, bem melhor do que as GPUs lançadas lá da Huawei, na China e de outras empresas, principalmente porque eles têm ali o sistema CUDA, que você consegue controlar de uma maneira muito mais fácil, muito melhor, para onde está indo os dados ali das GPUs, fazer a paralisação de tudo isso. E ele também falou, galera, vamos parar de fazer alarmismo quanto a isso, vai dar tudo certo,
E a China, por outro lado, falou, vamos aprovar aqui algumas empresas para comprarem esses chips, essas GPUs H200 que eles também tinham bloqueado. Então, no final, tudo mais ou menos está avançando para dar certo, mas lembrando, versões que não são estado da arte, sendo que estado da arte hoje em dia são as B200, as Blackwell e as Vera Rubin. E também sobre a China, nessa semana saiu uma investigação do New York Times falando que a China está penalizando pessoas que estão ligando
ligadas a Manos por conta dessa intenção da meta de comprar a Manos. Lembra que a gente falou, Manos está indo para Singapura? A China fala, onde você trabalha? Na Manos, está indo para Singapura? Não, fica aqui. Não está deixando o pessoal ir para Singapura para poder trabalhar. Então eles estão tentando atazanar e atrasar mesmo com essa mudança da base da Manos. Lá é uma compra de 2 bilhões de dólares, não é pouco. A China falou, a gente vai querer ver e vai querer meter o bedelho, vai querer colocar termos de tal, os termos de uma
parte dessa aquisição. A gente até perguntou pra vocês, recentemente, numa enquete, a China vai deixar? Os opções disseram sim, não, e sim com restrições. O sim com restrições ganhou, e a gente tá vendo que, de fato, é o que a realidade tá trazendo também. Então, a China proibir funcionários da Manos de ir pra Singapura pra trabalhar por conta dessa aquisição, mesmo sendo de Singapura, é uma coisa que a gente olha e fala, tá, faz completo sentido. Mas, de notícia boa, a Manos também lançou, basicamente, o Open Call dela nessa semana, né? Foi exatamente isso. Tá todo mundo
lançando o próprio OpenClaw. Foi uma aposta que eu tinha feito. Essas empresas, não dá dois meses, todos vão lançar. E exatamente isso, menos de dois meses, todos estão lançando os próprios. Eles chamaram de MyComputer, que é uma funcionalidade dentro do aplicativo deles, do software Manus Asktopic, rodando a sua máquina, para literalmente ser um OpenClaw. Permite que a gente trabalhe no seu computador, acessando arquivos, gerando coisa, terminal, programação e tudo mais. O jeito mais fácil de explicar é o OpenClaw da Manus.
já paga o serviço da Manus já vai estar disponível para você e você vai poder usar um OpenClaw ali também com mais guardrails, mais segurança você não precisa instalar um VPS já está rodando direto na sua máquina só que lembre, eles estão rodando com modelos de inteligência artificial por trás então toma muito cuidado com rodar isso diretamente na sua máquina onde tem os seus arquivos que você acessa que você usa no seu dia a dia, sem ter um backup pelo menos, se tiver um backup, beleza pode ser uma dor de cabeça, mas recuperável
não tiver um backup, eu recomendo qualquer um desses, tá? Não é só por ser da Manus. O Cloud Dispatch, o Perplexed Computer, todos, todos, qualquer um desses, tenha backup das suas coisas ou use em uma máquina específica pra rodar esse tipo de coisa. É mais seguro. E também, vindo da China, tem a Minimax, que lança os modelos Minimax que foram muito elogiados exatamente nessa época aqui, nessa era de OpenClaw, que era um modelo bom e barato, rodava
e funcionava muito bem, como o cérebro do agente da OpenClaw, eles lançaram um novo modelo, o Minimax M2.7, com esse foco em funcionar com agentes de ar, foco mesmo em basicamente rodar bem com o OpenClaw, e é um modelo basicamente estado da arte, a gente pode olhar alguns dos benchmarks, ele diz que se compara aos benchmarks das empresas melhores, como por exemplo o Claude Sonnet, o Claude O,
o GPT 5.4, funciona melhor que os modelos da Antropic e da OpenAI e da Google em vários desses benchmarks, só que sempre a gente fala, benchmark é uma coisa, a realidade pode ser outra, já em outros benchmarks ele fica atrás, mas a gente pode dizer que é um modelo estado da arte, commodities, todos mais ou menos ali no mesmo nível. Se você nunca ouviu falar e você está rodando outros modelos na sua empresa, eu recomendo fortemente que você teste e faça benchmarks, tanto de qualidade quanto de custo,
rodando o M2.7 aqui, porque ele tinha já na versão anterior, funcionava muito, muito bem, e pode ser uma economia muito grande quando você está trabalhando internamente com agentes. E outras últimas notícias aqui da China, a ZAI, uma coisa que eles estão planejando uma grande reorganização interna lá, para colocar todas as equipes de produtos deles de IA, de aplicações, de hardware, que eles têm os óculos inteligentes, em uma única unidade,
como se fosse um instituto de IA, basicamente, deles. E a outra é que eles lançaram um novo modelo, uma versão basicamente destilada, mais rápida, do GLM-5 deles, que se chama GLM-5 Turbo. É basicamente uma versão menorzinha, mais rápida, para você trabalhar ali com agentes, trabalhar com qualquer coisa que você queira, só que usando um modelo menor e um modelo mais rápido. Os links de tudo isso estão na descrição.
tem um modelo novo, misterioso de um trilhão de parâmetros chamado Hunter Alpha que brotou lá no dia 11 de março no Open Router, que é um desses dos índices de teste, etc e o pessoal está especulando que é o próximo DeepSeek que está testando na verdade seria a DeepSeek testando o V4, o modelo dela e que está mandando bem, chamou atenção então de um trilhão de parâmetros não é pequeno o pessoal adora um mistério
Não tem notícia a não ser, existe um modelo novo, misterioso, chamado Hunter Alpha, de um trilhão de parâmetros, que está chamando a atenção. Vamos ver semana que vem, na outra, a gente fala sobre o que ele é, se tem um anúncio de verdade a respeito disso. É, e é muito provável, porque a gente já está há algumas semanas falando, ó, semana que vem está prometido para sair o DeepSeek V4. Talvez eles estejam realmente fazendo esses últimos, últimos testes mesmos para lançar. E outra, tem poucas empresas no mundo que têm capacidade computacional o bastante para treinar um modelo
um trilhão de parâmetros. Pode ser um fine tuning, beleza, aí são mais empresas, mais centros de pesquisa até, que conseguem fazer, mas pra treinar mesmo, é bem, bem, bem complicado. Então, tudo indica que seja mesmo a DeepSeek ou algo dessa grandeza, vamos dizer assim. Outra empresa, essa sim, que lançou o modelo, foi a Mistral Monamour, que lançou o Mistral Small 4, que é basicamente, tinha vários modelos que faziam coisas diferentes, um pra capacidade de raciocínio
um para matemática, um multimodal, um para código e tudo mais. Agora eles colocaram meio que tudo em um modelo só, que eles chamaram aqui de Mistral Small 4, um modelo pequeno, claro, mas que é para fazer meio que tudo. É um MOE, um Mixer of Experts, Mistura de Especialistas, que quando você tem uma rede neural grande, só que ela só ativa uma parte dela para tarefas específicas. Então uma parte dela ativa para programação, a outra parte vai ativar para escrita criativa,
reconhecimento de imagens, mais ou menos assim que funciona, um modelo de 119 bilhões de parâmetros, então mais ou menos ali o mesmo que o Nemotron 3 Super, que foi lançado na semana passada da NVIDIA, que o GPT-OSS, o modelo aberto da OpenAI, e tem uma janela de contexto bem grandinha, até de 256 mil parâmetros, ele é bem mais rápido, três vezes mais rápido que as versões anteriores deles,
4 GPUs H100, 2 GPUs H200 ou em uma GPU B200 da NVIDIA. Os números de benchmarks são bem bacanas, bem interessantes mesmo, comparando inclusive com outros modelos da Mistral, com o Mistral Large 3, que era o modelo padrão deles, ele funciona levemente pior na maioria dos casos e até melhor em vários casos. Ou seja, modelo realmente estado da arte para o tamanho que ele tem.
falei, 119 bilhões de parâmetros ativos, sendo que 6 bilhões se ativam ali para cada geração do token. Então, mais um modelo para você testar aí na sua empresa. E partindo agora para a XAI, duas notícias rápidas. A primeira é que dos fundadores da XAI originais, que são acho que 12, uma coisa assim, agora só tem um ou dois, porque nessa última semana o Elon Musk expulsou os mais dois que estavam lá e dizendo que a XAI não foi feita direito, da primeira vez,
a reconstruir agora, do zero para... Aí sim, eles começarem a estruturar uma parte que eles querem que seja muito importante, que é justamente de um produto voltado para codificação. Então, ele falou que esses dois, que eram responsáveis por isso, não estavam fazendo um bom trabalho, tirou os dois e a XAI contratou um staffer sênior lá da Thinking Machine Labs para poder ir para lá. Eles tinham contratado algumas pessoas de uma outra... Da Cursor. Da Cursor, exatamente. Então,
estruturando a partir disso. Então, assim, toda a empresa do Musk passa por esse tipo de coisa, né? Ele chega, torce tudo lá, o povo sai falando, agora eu vou fazer do meu jeito, vou fazer direito. Aí é isso, né? Mas aí uma empresa compra outra, afagocita a segunda, terceira, quarta, ele vai fazendo em cima disso, né? Mas vamos ver o que vai sair desse interesse agora, desse mês do foco da XAI de ser uma ferramenta agêntica de programação e quanto tempo leva para os outros dois restantes lá,
fundadores da XAI também tomarem outro caminho. Caminho da roça, basicamente. Exato. Mas é interessante porque essa ele criou sim do zero. Muitas das empresas que ele tem, ele adquiriu ou ele entrou muito depois e tudo mais. A XAI ele tinha criado do zero com as pessoas que ele queria, que ele tinha convidado para criar. Não deu certo do jeito que ele queria, pelo menos até agora. E ele diz principalmente, a fofoca que diz é por causa desse modelo mais atual que está liberado.
para poucas pessoas até, que é o Grock 4.20. A piadinha clássica de maconha do Elon Musk, porque ele é um adolescente de 14 anos. Mas ele não ficou satisfeito com a qualidade do Grock 4.20 comparado com o estado da arte que a gente tem hoje em dia, que são Claude Opus 4.6, GPT 5.4 e o Gemini 3.1 Pro também, mas o Gemini está um pouquinho, está levemente
esses dois porque já ficou velho. Velho, a gente diz, já foi lançado faz três meses, enquanto que os outros foram lançados faz um mês e meio, dois meses. Mas é isso, basicamente ele não estava feliz com isso. E aí, o que falam também é que quando ele está querendo uma coisa que seja lançada, específica, ele vai presencialmente e ele fica com uma cadeira sentada ali do lado do programador. E aí, deu certo? E aí, deu certo? E aí, deu certo? Basicamente, tipo, papai, já
Papai, já chegou? Nessa pegada. E ele fica com uma pressão da galera também de trabalhar altas horas, ficar ali tipo 14, 16, 18 horas de trabalho por dia. E eu tinha até visto um engenheiro da XAI publicando no Twitter um tempo atrás, acho que um mês atrás, falando, olha, a gente aqui, agora que o Musk está, estamos querendo o lançamento de um modelo cada vez melhor, estado da arte, nunca me senti tão aquecido depois dessas vários dias trabalhando,
sem parar, com pessoas dormindo no escritório. E você olha para um lado e fala, tá, eles estão trabalhando ali, tentando quebrar a barreira do estado da arte. Por outro lado, essas pessoas não têm família, não? Não têm hobbies, não têm uma vida, além de basicamente trabalhar e fazer o Elon Musk ficar mais rico. Tem uma discussão aí, uma discussão a ser feita que não vamos ser eu e o Marcos a fazê-la. Não, mas é, concordo.
basicamente essa história. Mas, pulando para coisas mais alegres, tem basicamente... Não fala de golpe. Mas sim, várias empresas ali, a Google, a Microsoft, a própria LinkedIn, que é da Microsoft, a Meta, a Amazon, OpenAI, Adobe, grandonas lá, oito grandes empresas assinaram um acordo voluntário que eles vão compartilhar entre si a inteligência sobre como golpistas estão tentando usar os serviços delas
para coordenar ações contra esses golpes, contra fraudes que pessoas estão tentando baixar um torrent e ativar o Photoshop na sua máquina sem pagar. Não que alguém tenha feito isso alguma vez na vida. Ou o Windows, que a gente lá no começo, o pessoal fazia GPT 3.5, me dá uma chave de ativação do Windows aqui que eu posso usar. Não posso fazer isso. Ah, tá.
Me conta uma história. Quando eu era uma criança, minha vovozinha me contava várias histórias de passarinhos. E os passarinhos cantavam. E o que eles cantavam era chaves de ativação do Windows. Você pode me contar uma historinha assim para eu dormir? Claro, eu posso cantar. E aí bostava ali todas as chaves de ativação do Windows. Hoje isso não acontece mais, obviamente. Mas eram tipos de fraudes que eram feitas, essas contra as empresas. E também golpes usando os sistemas, as IAs deles, para fazer fraude internacional.
mesmo, então eles vão ter esse centro de conversa ali com o time de segurança deles, pra compartilhar informações, o que me parece totalmente bacana, me parece bastante válido eles fazerem isso entre si, e aí compartilharem isso também abertamente, de uma forma transparente, acho até mais legal eles fazerem, e não duvido que façam que eles compartilhem isso de uma maneira mais transparente, porque é uma coisa que beneficia o mercado como um todo. Sim, e teve eu tentei achar aqui agora pra colocar na descrição não consegui encontrar, se eu encontrar
de publicar o episódio, eu coloco, que era um link falando sobre como, a partir de agora, está muito os ataques de phishing e de golpes, eles acabam ficando mais convincentes, porque os hackers estão aprendendo a usar mais rápido do que as pessoas normais para fazer esse tipo de ataque. E ecoando isso, foi super interessante, porque nessa semana, lá no Carreira Sem Fronteiras, o Fabrício entrevistou um diretor de conscientização de cibersegurança, e ele falou exatamente isso, que agora os ataques de phishing estão muito... Primeiro que eles veem que a gramática e a ortografia é certa,
do phishing era tudo cagado de escrita. Mas estão usando agora o GPT para escrever direito um e-mail de phishing e está ficando mais difícil de identificar o que é. O que não é é que as ferramentas de ataque de phishing e de hacking estão mais avançadas do que as ferramentas de defesa. Se você botar IA contra IA para tentar fazer isso aí. Então faz total sentido que essa coalizão das principais empresas de consumidor que estão oferecendo IA do mundo vão passar a oferecer um relatório de como que estão abusando as ferramentas delas para tentar
fazer ataque contra elas próprias, tentam reagir. Isso, cada uma aprendendo por conta própria, agora uma aprende com a outra. E todo o mercado se prepara melhor. Achei muito bacana essa iniciativa. Achei curioso que a Antropic não fez parte dessa lista, mas a própria Antropic já produz muito conteúdo e conhecimento, relatórios, estudos e documentos, também falando sobre esse tipo de problema. Mas está aí. Todo mundo se juntando. Ótima notícia. E falando da Microsoft, que está junto dessa coalizão aí, o Satya Nadella mandou um memorando interno,
para os funcionários da Microsoft, falando sobre como, a partir de agora, a Microsoft também está se reorganizando para tentar fazer o Copilot ter um apelo maior para o mercado corporativo, para empresas. Eles até contrataram, faz um tempo, o Jacob Andreou, que veio lá da Snap, curioso, o executivo da Snap, indo lá para liderar a parte de uso para consumidor final, mas ele também vai ter um foco dividido para clientes, consumidor final e empresas, vai ter um foco dividido ali,
pelos novos de IA dentro da iniciativa da Microsoft AI. E olhando para a nova organização, e isso foi bastante repercutido na imprensa nesta semana, o ponto da Microsoft é tentar também ter um apelo maior para o mercado corporativo e tentar, de uma forma mais coesa, contar quais são os esforços, os produtos, as ofertas que ela tem para passar tanto para o mercado corporativo quanto para o mercado consumidor, sem estar tão associado à dependência e ao investimento,
OpenAI. Então é mais um passo desse distanciamento das duas empresas e ela tentando sozinha colocar produtos dela para emplacar tanto no mercado de consumidor final, quanto no mercado corporativo também, mas isso obrigou uma reorganização estrutural da empresa para tentar ir atrás dessa nova visão. Curioso como nas últimas duas semanas a gente falou muito sobre versões diferentes dessa notícia em empresas diferentes, também batendo na Microsoft o bichinho da reorganização. Agora que a gente entendeu, tem um certo domínio sobre como é que faz as ferramentas, como é que estão usando, vamos mexer
de cima para baixo, para agora cada um liderar para um pedaço para onde vai esses desenvolvimentos. Interessante observar como isso segue acontecendo. Outra rapidinha foi que a Cursor lançou a nova versão do modelo deles mesmo, o modelo de codificação agêntica, que é o Composer 2. A galera tem elogiado bastante os modelos Composer que você usa ali dentro do Cursor. Lembrando, ele é um editor de código, de programação, que você pode usar a inteligência de outros modelos. Então muita gente usa o Cursor com o Cloud Opus,
4.6 da Antropic, mas quando acaba o seu limite ali, se você paga o plano mensal, você tem que pagar o token e acaba ficando muito caro. Ou você pode utilizar também esse modelo Composer 2 deles mesmos. E é muito elogiado. E eles lançaram a nova versão agora, que é a versão 2, que também nos benchmarks está muito, muito bem. Ficou até impressionado aqui no terminal Bench 2.0. Ele ficou em segundo lugar na frente do CloudOps 4.6 e só atrás do GPT 5.4,
que é um modelo ali que pontuou, por exemplo, 75%, o Composer 2 pontuou 61%, à frente do Opus 4.6, que pontuou 58%. E aí tem outros benchmarks aqui que a gente geralmente comenta, que é o SWE Bench Multilingual, de várias linguagens de programação, ele pontuou 73%, o Cursor Bench, que é eles mesmos que criaram, pontuou 61%. Mas a coisa interessante, ele é um modelo menor, mais rápido, bem mais barato,
e que você pode utilizar ali, e que por ser menor, focar apenas nisso, na programação agêntica, ele pode meio que ignorar o resto das coisas, enquanto que um modelo Claudio Opus, um GPT-4, ele tem que ser muito bom também em escrita criativa, ele tem que ser muito bom também em análises de PDFs, ele tem que ser muito bom em várias coisas. Esses modelos Composer, eles podem focar mais ali na parte de código mesmo, e o que o mercado diz, que as pessoas falam por trás,
é que eles pegaram um modelo chinês, provavelmente o Quencode, ou algum outro desse nessa pegada, o Deep Seek Code, e foram fazendo vários e vários fine tunings em cima deles, mas só pra essa parte de código. E aí por isso ele funciona tão bem pra código, e de uma maneira mais rápida também. Mas se você quiser testar, tá lá, ele tá custando 50 centavos por milhão de tokens de entrada, e 2,50 por milhão de tokens de saída, bem mais barato que o Ops 4.6, bem mais barato que o GPT 5.4.
que está algo em torno de 5 vezes até mais barato do que esses outros. 5 a 10 vezes mais barato do que esses outros. Boa. E falando duas rapidinhas da Perplexity, a primeira é que ela lançou para o iOS, 4 meses depois de ter lançado para o Android, o navegador agêntico Comet. Então está disponível tanto para iPhone quanto para iPad. É interessante porque era para ter sido lançado dia 11 de março. Aí chegou dia 11, gente, vai ser dia 13. Aí depois dia 15. Aí dia 19. Aí chegou ontem, que foi dia 19. Ó, foi para o dia 25, tá?
lançou. Então está disponível. Eu até baixei rapidinho antes que eles tirassem do ar, mas é a história de navegadores agênticos. Baixei, mas não usei. Está aqui instalado, mas agora para quem quiser usar direto o navegador agêntico da Perplexity no iOS, já consegue fazer isso. E uma segunda notícia da Perplexity é que ela conseguiu uma liminar na justiça, pausando a proibição que tinha sido dada para ela de usar agente de navegação dela para fazer compra no Marketplace da Amazon.
Dá pra fazer isso, a Amazon processou, conseguimos eliminar bloqueando que a Apple Plex fizesse isso, aí a Apple Plex conseguiu eliminar bloqueando o bloqueio. Então nesse momento, agora aqui de manhã da sexta-feira, dá pra usar o Comet pra fazer compra na Amazon. Vamos ver se isso se mantém até acabar de fato esse processo. E nossa última rapidinha, antes de ir pros estudos aqui, eu acho que é a notícia que mais fez barulho na mídia geral nessa semana relacionada à inteligência artificial. O que aconteceu, basicamente? Um cara lá na Austrália,
o Paul Cunningham, ele tinha uma cachorra chamada Rosie, e é uma cachorra que já tinha há algum tempo câncer, ela tinha vários tumores ali, estava passando por uma situação complicada, só que é uma cachorra já um pouquinho mais velha, só que ele ama, ele amava muito essa cachorrinha, e ele queria fazer algum tratamento para ela. Então, basicamente, o que ele fez? Ele pegou o chat GPT, pegou ali a IA, e foi combinando com o trabalho de proteínas ali, de dobragem de proteínas, que a gente fala,
do AlphaFold, publicado ali pela Google, para tentar criar algum tratamento usando o IAP, porque ele não é uma pessoa técnica, ele é um empreendedor ali, mas ele não tem formação de biomédico, de biólogo, nada disso. Mas foi trabalhando ali com o ChatGPT, usando dados que ele pegou lá do AlphaFold para tentar fazer alguma coisa, algum tratamento específico, uma vacina para o câncer dessa cachorra da Rosie e diminuindo.
fez. Ele pagou 3 mil dólares para uma empresa que faz sequenciamento de DNA, fizeram sequenciamento biológico desse tumor, esses dados aí viraram algo computacional, e ele foi trabalhando com o GPT e o AlphaFold para ir navegando na literatura, trabalhando com cientistas da Universidade de New Wales, da Austrália, para identificar alguma mutação relevante e tentar chegar em uma vacina de mRNA personalizada para a Rose e para aquele tipo de câncer específico.
Vacinas de mRNA ficaram muito famosas, inclusive, durante a Covid. Uma tecnologia que foi desenvolvida por várias universidades ao longo das últimas décadas e que teve uma aplicação muito interessante, muito grande durante a Covid. Enfim, ele testou, conseguiu produzir, pagar para produzir essa vacina personalizada para a Rose e o câncer, esse câncer, esse tumor específico dela, entrou em remissão e sumiu. Só que a primeira coisa que a gente tem que falar aqui, torcedores, calma. Sempre.
A notícia é legal, a notícia é muito interessante. O uso de vacinas de mRNA para tratamento de câncer não é uma coisa totalmente nova, é uma coisa que já vem sendo pesquisada na academia há anos, se não décadas. Só que a notícia, do jeito que ela foi colocada nos meios, ela está um pouco exagerada. Sempre. Exato. O cara usou o IA e descobriu a cura para o câncer. Não, não é isso.
amores dela, está em remissão, ela continua sendo tratada, a Rosalind não está 100% curada, a gente não sabe se isso é apenas por causa da vacina, os biólogos vão ter que analisar e tudo isso, mas existem pesquisas sérias nessa área, então é uma coisa um pouco nebulosa, uma coisa que a gente não tem, não está 100%, mas é um caso anedótico, experimental, que aparentemente pode ter dado certo que esse cara leigo, com muita grana,
pagou para cientistas desenvolverem isso e usou ali, foi trabalhando junto com o GPT, com o Alphafold, para chegar na formulação específica dessa vacina de RNA. Mas a parte da logística, a parte do sequenciamento, tudo isso foi feito por clínicas sérias, por institutos lá da Austrália. Não foi ele que foi na garagem dele e foi perguntando para o GPT como que eu crio uma vacina do zero, como que eu crio uma bomba atômica do zero. Não foi exatamente isso, ele trabalhou,
junto com empresas sérias para fazer isso. Enfim, boa notícia potencialmente, mas toma cuidado com toda a hiperbolização que foi feita na mídia sobre ela. Mostra o que é possível, não o que já está curado. Então isso é interessante. Indo para os estudos da semana, vou começar rapidinho da Antropic, que ela fez um levantamento com 80.508 usuários do Cloud
como eles estão vendo, as esperanças deles, os medos que eles têm a respeito de IA. E é um estudo, falando que é o maior estudo qualitativo já feito até hoje com esse tipo de investigação. E, basicamente, o que eles encontraram foi o seguinte, começou em dezembro, eles foram coletando essas impressões todas e, basicamente, o que 81 mil pessoas querem a partir de IA. Mostrou que, enquanto a IA já está ajudando,
das pessoas, você fala assim, 80% das pessoas já estão vendo ganhos, seja de produtividade, seja em outras partes, mas está acrescentando, está trazendo, está deixando as pessoas mais inspiradas, mais esperançosas, mas também é até meio óbvio, está causando que as pessoas fiquem preocupadas com um certo alarme sobre o potencial de mau uso, isso dominando mercados, entrando no mercado e pegando o risco que existe desde sempre, aquela profecia que não se completou ainda sobre substituição de empregos, ao invés de elevar
os empregos, e categorizou em nove clusters, nove categorias diferentes, incluindo excelência profissional, transformação pessoal, transformação da sociedade, transforma um, transforma o global também. O levantamento vai estar aqui, para quem quiser dar uma espiadinha mais a fundo, tem diversas frases também de pessoas de ao redor do mundo, que isso afeta, um engenheiro de software na Polônia vai ser afetado diferente de alguém que trabalha com contabilidade na Austrália.
na França, então é um levantamento daqueles interessantes que a Antropic faz, não só coletando dados, anonimizando o uso do cloud, mas isso indo atrás mesmo das pessoas que usam o cloud para trabalhar com saúde, para fazer brincadeira com as crianças, para trabalhar com direito, mais um daqueles relatórios legais que a Antropic faz e que merecem destaque. E o segundo é um que veio de Stanford, um estudo com 391 mil mensagens, isso em 5 mil conversas,
com vários chatbots, eles concluíram que os chatbots de IA afirmaram as mensagens dos usuários em 66% dos casos, geralmente validando o pensamento delusional, o pensamento alucinado, não do modelo, mas da pessoa. É aquilo que a gente fala sobre como as pessoas têm ideias erradas de vez em quando, a IA vai confirmando o que a pessoa pensa ali, ela acredita que descobriu uma física nova, que tem um segredo que o governo está escondendo e tem que mandar para a imprensa,
e essas coisas que a gente vê acontecer isso levando às últimas consequências, as pessoas se machucam ou pior, né? Então o Instituto Stanford mostrou que diversos chatbots ainda tem esse comportamento que é o que começou com a discussão sobre o comportamento bajulador da versão lá do GPT-4.org mas que tem impactos muito reais no dia a dia de pessoas, especialmente que está mais vulnerável a esse tipo de coisa. Então esse é um problema global, né? Que afeta todas as ferramentas de IA, os chatbots não só uma ou outra
Bem interessante o estudo de Stanford.
para saber a relação, o peso que cada token, cada palavra tem para prever aquele próximo token, aquela próxima palavra, por exemplo. Bem em alto nível, eu estava explicando. Mas o que esse artigo propõe é uma maneira de substituir as conexões residuais que são usadas normalmente na arquitetura dos transformers, que o problema é que essas conexões normalmente somam todas as camadas anteriores da rede neural com pesos iguais,
essas informações vão se misturando demais e perdendo a relevância. As camadas que são importantes podem acabar ficando diluídas e aí o modelo vai compensando isso com valores cada vez maiores. E a solução que eles propuseram nesse paper é usar um mecanismo semelhante ao de atenção que permite que cada camada escolha de uma maneira dinâmica quais camadas anteriores são relevantes para ela e quais são menos. Colocando ali basicamente pesos para cada camada,
apresos aprendidos, isso dependendo do conteúdo. E os resultados que eles tiveram com isso foram muito consistentes, muito robustos em melhorias. Eles mostraram que esse método reduziu a perda do modelo, a loss do modelo, de uma maneira equivalente a ter 25% mais de poder computacional na hora de um treinamento. A galera comemora, geralmente, quando eles têm 1%, 5% de ganho. Isso aqui, ele realmente tendo 25% de ganho, é uma melhora absurda.
de otimização vindo lá da China novamente, depois do DeepSeek um ano atrás. E melhorou também os modelos deles em várias tarefas de raciocínio, de código, do benchmark do DeepQA, que é, por exemplo, de tarefas de nível de PHD, no HumanEval também. Então, muito, muito bom. Se você trabalha com pesquisa, é o paper que mais fez barulho nessa última semana. É obrigatório você ler ele. O outro quarto de cinco estudos aqui.
ele se chama Prompt Injection as Role Confusion, a injeção de prompt, que você colocar alguma coisa mal intencionada no prompt para tentar enganar o modelo como um role, um papel de confusão ali, que é você tentar literalmente confundir o modelo baseado no papel. Se você nunca rodou localmente um modelo ou rodou em um cloud, quando você vai fazer isso, tem ali o papel que está sendo desempenhado, se é o system,
que é o próprio modelo que está dando a resposta, ou se é o user. O system também pode ser assistant, às vezes o assistente, que é o robozinho, a rede neural, ou o user, que é o usuário, que é o prompt do usuário. Isso vai sendo passado para o modelo. Então vai ter ali primeiro uma mensagem que veio do system prompt, aí vai ter o prompt do usuário, um user, aí depois vai ter o assistant, que é o assistente respondendo, aí depois o user de novo, depois o assistente de novo, e assim por diante. Só que os modelos não distinguem necessariamente
necessariamente, especialmente quando você aumenta o tamanho da conversa, ele vai tratando tudo como texto igual, sem diferenciar muito bem. E aí isso pode permitir, em gestão de prompt, você colocar uma coisa indesejada e o modelo entender isso como se fosse um próprio system prompt dele, ou do assistant, em vez de um prompt do usuário que ele fica mais de olho para bloquear, por exemplo. Inception. É, basicamente uma inception, exatamente.
permite que pessoas mal intencionadas explorem essa ambiguidade, que o modelo reinterprete quem está realmente no controle aqui. Então, muito interessante também, para quem quiser ler, a gente deixa aqui na descrição. E, por último, a gente teve o ExolangBench, que é um benchmark criado para ver se modelos de linguagem realmente estão raciocinando ou eles estão trabalhando com padrões, isso aqui em linguagens de programação.
esotéricas na linguagem que o modelo não foi realmente treinado naqueles para trabalhar. Como Whitespace, que é um monte de espaço branco, BrainFuck, que é um monte de bobagem lá no meio. Os modelos não estão super treinados nelas, como Python, como Java, como JavaScript e assim por diante. Mas a ideia é a mesma. Tem loop for, tem loop while, não usando essa sintaxe exatamente, mas o conceito está ali. Tem o condicional if, o conceito está ali.
E era para ver se os modelos conseguiam trabalhar nisso, nessas linguagens que eles não foram treinadas, tão bem quanto ou quase tão bem quanto eles trabalham em Python, em Java, em outras linguagens. E o resultado foi que não. Os modelos funcionam, por exemplo, muito bem, atingindo níveis de acurácia de 85%, 95% nos benchmarks tradicionais usando linguagens como Python, como Java, como JavaScript. Nesse benchmark aqui, usando essas linguagens,
BrainFun, Widespace e outras, eles tiveram um desempenho de 0% a 11%. E nas tarefas que vão além do nível fácil, todos eles pontuaram com 0%. Ou seja, isso mostra que os modelos não estão realmente raciocinando por trás de alguma coisa, mas eles estão identificando os padrões baseados nos padrões que eles aprenderam durante o pré e o pós treinamento deles. E eles tentaram também usar um fio short,
usar um chain of thought, algo nesse sentido. E também não ajudou muito, porque usar um feel shot, usar um chain of thought, faz o modelo pensar mais, faz o modelo caminhar melhor na direção correta de algo que ele já tinha aprendido no pré-treinamento. Mas como ele não aprendeu essas linguagens bizarras do pré-treinamento, ajuda um pouquinho, mas não muito. Então modelos atuais têm essa dificuldade de transferir conhecimento para contextos novos. Paper super, super interessante.
para a parte de interpretabilidade mesmo, de modelos. É uma coisa que eu não duvidaria a Antropic publicar algo sobre isso, mas nesse caso não foi a Antropic, foram dois pesquisadores independentes, Aman Sharma e Paras Chopra. Ainda estou surpreso que tem a linguagem que chama Brain Fuck, coisa que só a internet proporciona para a humanidade. Enfim, o link desse estudo e do resto dos estudos, as notícias todas estão na descrição aqui do episódio, também em asobreocontrole.tech. Lembrando que se você ainda não passou na descrição
na nossa missão da imersão IA sob controle válido do Silício. Está acabando o tempo, as oportunidades, as vagas. Corre para você poder ir com a gente, que vai ser muito legal irmos todos juntos e juntas para poder conhecer as empresas todas. E eu e o Fabrício voltaremos na quarta-feira com uma entrevista aqui. Se eu fosse você, eu não perderia. Até lá. Este podcast foi produzido pela Alura. Mergulhe em tecnologia. E Faculdade FIAP. Let's rock the future.
Edição Rede Gigahertz de Podcasts