233: Meta compra o Moltbook, Perplexity Personal Computer, mercado apoia a Anthropic
Sexta-feira é dia de repercutir as principais notícias da semana, no mundo da IA. Vem ver quem participou desse papo:
Marcus Mendes, host sob controleFabrício Carraro, co-host sob controle, Program Manager da Alura, autor de IA e host do podcast Carreira Sem FronteirasTiago Torrent, professor de linguística computacional na Universidade Federal de Juiz de ForaLinks:
Imersão IA Sob Controle no Vale do SilícioIA Sob Controle 232: Soberania tecnológica e o futuro da IA no Brasil, com André Beck da Wide LabsOpenAI compra a PromptfooOpenAI lança o Codex SecurityOpenAI deve lançar o Sora no...- Conflito Pentagon-AnthropicDesignação como risco de cadeia de suprimentos · Saída de executiva Kate Lencarsky · Política de recusa de armas · Ação legal da Anthropic
- Suporte ao Desenvolvimento de EmpresasAmicus Brief · Desafio ao Pentágono · Signatários da Microsoft e Google · Restrição de cadeia de suprimentos
- IA Vale do Silicio31 agosto a 4 setembro · Visitas a empresas · 60% das vagas completas · Visto e passagens aéreas
- Problema Grammarly Expert ReviewUso de nomes de jornalistas sem permissão · Jornalistas em protesto · Remoção do recurso · Processo coletivo
- Empresa LelacInvestimento de 1 bilhão de dólares · Foco em world models · Sede em Paris · Valuation de 3.5 bilhões
- Projetos culturais comunitáriosProcessamento linguagem natural · Dados de saúde pública · Padrões semânticos · Subnotificação 80%
- Perplexity Personal ComputerAgente de IA local · Integração com Mac Mini · Alternativa ao OpenAI o1 · Privacidade de dados
- Inteligência Artificial NvidiaModelo de 120 bilhões de parâmetros · Mixture of Experts · Contexto de 1 milhão de tokens · Modelos abertos
- Claude em Firefox da MozillaParceria de segurança · Detecção de vulnerabilidades · Code Review com agentes · 14 falhas graves em 2 semanas
- Avocado lançamento e adiamentoModelo de IA da Meta · Desempenho inferior em testes · Atraso de lançamento · Competição com Gemini e GPT
- Aquisição Meta MoutbookCompra da plataforma de agentes · Estratégia de contratação de talentos · Rede social de bots · Modelos de IA abertos
- Tecnologia móvelCompras automáticas impedidas · Navegador conversacional · Coleta de dados de compra · Decisão judicial
- OpenAI compra PromptFooSegurança de código · Codex Security · Agentes de segurança · Vulnerabilidades encontradas
- Paper Agentes do Caos Stanford HarvardAlinhamento em competição · Deterioração de comportamento · Múltiplos agentes em ambiente · Corrupção de valores
- Paper SAI Superhuman Adaptable IntelligenceAlternativa a AGI · Especialização em tarefas · Aprendizado rápido · World models
- Inteligência ArtificialPesquisa conversacional · Busca contextualizada · Navegação 3D · Personalização
- Criptografia e moderação em plataformas MetaModeração insuficiente · Rotulagem de conteúdo IA · Risco de desinformação · Conflitos armados
- Netflix aquisições e investimentosAceleração de produção · Edição de vídeos de IA · Gravação ao vivo para edição · Investimento 600 milhões
- STF Setor PrivadoAdoção na China · Restrição governamental · Aprovação prévia · Riscos de segurança
- YouTube detecção de deepfakesRemoção de deepfakes · Proteção de personalidades · Notificação por email · Programa piloto jornalistas
- Copilot MicrosoftIntegração de ferramentas locais · Execução de tarefas automáticas · Ecossistema Microsoft · Planejamento de execução
- Direitos AutoraisViolação de direitos autorais · Cópia de estrutura relacional · Reprodução de descrições · Dados de metadados
- Desenvolvimento TecnologicoAndrew Millett e Jason Ginsberg · Desenvolvimento de agentes · Competição de startups · Super Intelligence Labs
- Esquerdomachismo EmpreendedorismoEmbeddings multimodais · Combinação imagem texto vídeo áudio · Operações matemáticas vetoriais · 8000 tokens texto
- OpenAI integra Sora no ChatGPTGeração de vídeos · Sora 2 mais realista · Ressuscitar interesse · Contexto conversacional
- Tencent desenvolve agente de IASuper app WeChat · Rival de Alibaba e Baidu · Competição em modelos · Contratação de talentos
- Eleven Labs série TV deepfakeAcessibilidade de voz · Clonagem de voz · Casos de uso sociais · SXSW 2025
- Desempenho EconômicoFuga de cérebros reversa · Pesquisador de chip design · China mantendo talentos · Universidade de Pequim
- Canva Magic LayersDecomposição de imagens em camadas · Edição de elementos independentes · Remoção de backgrounds · Integração Photoshop
- Chrome com Gemini em 50 idiomasGemini 3.1 integrado · Suporte em 50 novos idiomas · Incluindo português brasileiro · Desktop e iOS primeiro
- OpenAI adia modo adulto ChatGPTConteúdo adulto · Verificação de idade · Reprioritização de recursos · Foco em modelos
- MarcoVAI libera dataset computer use48 mil vídeos de tela · Treinamento de modelos · Ferramentas Autocad Blender Excel Photoshop · Licença Creative Commons
- Rapid.ai Lyricl Agent 4Automação de desenvolvimento web · Design e frontend · Backend coordenado · Agentes paralelos
- Paper Mixture of Universal ExpertsArquitetura de experts compartilhados · Largura virtual · Reutilização de parâmetros · Eficiência computacional
- Final Phase dataset Hugging Face486 bilhões de tokens sintéticos · Dados de pretreinamento · Pesquisa aberta · Benchmarks superiores
Olá, bem-vindas e bem-vindos à edição de sexta-feira de notícias do E.A. Sob Controle, o seu podcast com overfitting de informações sobre o mundo da inteligência artificial. Eu sou o Marcos Mendes e tenho, claro, assim como toda semana por aqui, o Fabrício Carraro, viajante poligota, host do podcast Carreiras Sem Fronteiras, autor da newsletter E.A. Sob Controle, que se você não assina ainda, o link está na descrição, e Program Manager da Alura. Fabrício, tudo bem?
mais um episódio aqui do IA sob controle de notícias. E hoje tem de novo chuva de notícias, né? Eu tava vendo aqui a pauta, planejando aqui e tal, que a gente vai tentar fazer o melhor possível, inclusive passar por algumas coisas mais rápido, né? Mas Marcos, acho que pra começar, a gente pode falar direto da viagem que eu, você e o pessoal de casa vai fazer lá pro Vale do Silício, a imersão IA sob controle no Vale do Silício com a Alura e com a Startse, né?
Sim, de 31 de agosto ao dia 4 de setembro, a gente vai visitar um monte de empresas que são figurinhas carimbadas aqui do podcast, que se você está chegando hoje, a gente não pode falar ainda quais são. Primeiro porque a gente tem que fechar o grupo para combinar com as empresas, e depois que tem empresa que fala, você não pode falar que vai vender viagem por causa da gente, tá? Então vocês só vão aparecer aqui, quando tiver aqui eles contam. Então vai ser meio assim, mas no site que está aqui na descrição,
Start-se para o Vale do Silício para ter uma ideia de como é que é. Os dias cheios de palestra de manhã à tarde, fim da tarde, coisas às vezes à noite também. É muita coisa, tá? Eu estou muito empolgado. O Fabrício está muito empolgado. O Paulo Silveira da Alura está muito empolgado. O Marcelo Almeida da PM3 está muito empolgado. Então, não perde a chance porque, olha, como o Fabrício disse semana passada, as vagas já estão acabando. Mais da metade já foi, né? Exatamente. Mais de 60% das vagas já foram, Marcos.
lá, porque é uma viagem para os Estados Unidos, então tem questão de visto, o pessoal lá da cidade vai poder ajudar, orientar como fazer isso, comprar passagens também, porque vai ser no final de agosto, 31 de agosto, vai ser o primeiro dia das visitas lá, e faltam aí cinco meses e meio, então agora é o momento de você correr, fechar, ver o visto e comprar as passagens para você viajar comigo, com o Marcos, com o Paulo Silveira e com o Marcel, lá para o Vale do Silício. Dito isso, vamos para os recadinhos pré-pauta,
perguntou pra vocês o que vocês tinham achado lá na enquete do Spotify, né? O que vocês acharam dos comerciais da Antropic? E as opções eram muito bons, injustos e ambos. Muito bons venceu esmagadoramente com 87%. Ninguém achou só injusto, zero votos, inédito isso. E 13% de vocês disseram muito bom, mas também é injusto. Ambos. Então, muito bons venceu. A minha escolha foi
Injusto, mas muito bons também. Não foi só muito bons, não. Concordo, concordo, Marcos. E no episódio de quarta-feira de entrevistas, a gente bateu um papo com o André Beck, da Wild Labs, sobre assuntos mais, vamos dizer, jurídicos, talvez, ou políticos. Regulatórios. Regulatórios. Assim, esse episódio eu vou dar uma dica pra todo mundo, tá? Não vale ler só o título. Tem que ouvir o episódio.
Olha que mágico, porque aí você entende sobre o que é o episódio. O título menciona uma palavra que é soberania. E muita gente imediatamente associa a soberania a um monte de coisa que não tem a ver com o assunto do episódio. Então eu vi até o Fabrício fazendo o trabalho do senhor e desmistificando um pouquinho isso nos comentários do Spotify. Pois é, é um tema que é muito... Essa palavra soberania é um tema extremamente usado aqui na Europa. Eu trabalho diariamente com isso.
no Barcelona Supercomputing Center, cada país ou cada região quer ter modelos, quer ter tecnologias que eles usam essa palavra, soberanas, que não dependam dos outros e não tem nada a ver com dinheiro público necessariamente. A Mistral é uma empresa francesa, uma empresa privada que deu soberania em inteligência artificial à França, porque é uma empresa francesa e eles não precisam depender de modelos ou mandar os dados deles para os Estados Unidos, para a China ou alguma
outra coisa nesse sentido. O Barcelona Supercomputing Center aqui está criando modelos com esse foco aqui. Treinados na Espanha, com esse foco na Espanha. Tudo certo, tudo normal. No caso do BSC, é sim um centro de pesquisa público. No caso da Mistral, não é. Então não tem nada a ver com essa talvez polarização. Não tem nada a ver com isso. Cada um faz a entre aspas soberania do jeito que quiser. Exato. Então o papo ficou super interessante. E a gente perguntou diretamente a respeito dessas coisas todas, que a gente já sabia que ia causar um furdunço.
Mas tem que escutar, né? Senão não adianta nada. Enfim. E a gente comentou na semana passada, ou retrasada, nem sei, o tempo tá muito doido, sobre o Conselho Federal de Medicina que tinha feito uma regulamentação do uso de IA na saúde por profissionais de saúde, médicos, médicas. A gente repercutiu aqui rapidamente e recebemos um feedback de um ouvinte, né, Fabrício? Muito legal o feedback do Emílio Trancoso Neto, que ele escutou o episódio e falou,
Qual que era a minha intuição? Eu tinha falado, a gente discutiu que talvez parecia ambíguo o jeito que eles escreveram ali no Conselho de Medicina sobre se poder ou não poder culpar os médicos, que isso tiraria, na verdade, a culpa do médico se foi o LLM, o modelo de IA, que errou na hora de prescrever alguma coisa. E o Marx falou, parece ambíguo isso, eu falei, eu acho que fizeram ambíguo de propósito.
proposital e tem contradição na própria resolução. O que faltou? Que o CNJ e a OAB já regularam a IA e não criavam essa brecha, que o juiz sempre responde, o advogado tem o dever de revisar tudo, mas o CFM aqui da medicina fez diferente, criou essa possibilidade do médico se proteger quando é a IA que erra, só que essa resolução é meio contraditória, porque um artigo diz que o médico pode ser protegido por falhas que são exclusivamente da IA,
integramente responsável. Ou seja, na mesma resolução tem coisas contraditórias. Então, a leitura do Emílio foi que o médico que confiar nisso pode se dar mal. E aí ele deu parabéns pra gente pelo IA Sob Controle. Obrigado e parabéns pra você, Emílio, pelo comentário muito útil aqui complementando a nossa notícia. Muito obrigado e vamos começar com o que pintou ao longo dessa última semana. A OpenAI, ela comprou, eu achei ótimo o nome da empresa, PromptFu. Tem o Kung Fu, eles são PromptFu.
que é especializada em correção de bugs e problemas de segurança em sistemas de IA que estão sendo construídos. E ela já vinha sendo usada em pelo menos 25% das empresas Fortune 500. E ela vai entrar numa divisão que é a OpenAI Frontier. E a gente vê, já tem falado aqui sobre a OpenAI tentando virar Antropic, mas rápido que Antropic vira OpenAI, apelando mais para o mercado corporativo.
movimento nisso, do mercado B2B, que eles chamam, de negócio para negócio, e a compra dessa PromptFool, ela aconteceu na mesma semana que a Anthropic e a Mozilla publicaram uma notícia que a gente já comenta aqui, que tem a ver com segurança, Firefox, etc. Mas é o PNI se mexendo em bastidores para tentar garantir uma estrutura, talento, começar a ter mais produtos voltados não só para o mercado corporativo, mas para a segurança do mercado corporativo na época de agentes e
LLMs agênticos, etc. Então, é uma movimentação pequenininha de bastidores, mas ela diz muito sobre para onde quer operar. Um pedaço dela, pelo menos, vai apontar daqui para frente. É, e junto com isso, eles lançaram também o Codex Security, que seria um agente com esse foco na segurança das aplicações, para automatizar a identificação, sugerir correções de vulnerabilidades. É uma coisa que todo mundo tem falado há pelo menos 2, 3 anos, que as ferramentas de criação de código poderiam e iriam gerar junto também várias vulnerabilidades
for da área, que só está confiando ali, sem saber mesmo o que está fazendo. Então, aqui, eles estão focando bastante nisso. Isso veio baseado naquele agente de pesquisa, o Wardvark, que a gente comentou um tempo atrás que tinha sido comprado pela OpenAI, e agora eles fizeram isso aqui em um sistema, que eles chamaram de Codex Security, e está disponível, por enquanto, só em versão de pesquisa, não está ainda abertamente, mas para a galera que é cliente enterprise, business e tudo mais, e está grátis, inclusive,
quem quer fazer pesquisas. Mas eles falaram que essa ferramenta do Codex Security já encontrou quase 800 falhas críticas e vários bugs lá, 10 mil problemas de alta severidade em repositórios que estavam expostos, que eles testaram ali, bug no Chrome, bug no Open SSH, enfim. É muito legal e muito importante eles trabalharem em cima disso também. E uma decisão que a OpenAI aparentemente tomou, isso o pessoal do The Information reportou com fontes que
ficam anônimas, porque estão vazando o segredo da companhia e não pode, é que a OpenAI vai integrar direto no chat de PT o Sora, aquele a ferramenta, o produto, o modelo deles, que eles relançaram no ano passado, o Sora 2, que faz vídeos que tem a capacidade de ser mais hiperrealistas para quem quiser fazer isso, e você pode fazer vídeo seu, vídeo do amiguinho, etc. Eles vão fazer isso para tentar reavivar um pouco o interesse do público pelo Sora, porque ele sumiu. A gente falou muito do lado do comecinho, quando ele foi lançado,
processo, a gente fala aqui que a Disney levou um golpe, que fez lá um investimento multibilionário no Sora e deu traços até agora pra fazer personagem da Disney direto por lá. Então a OpenAI vai colocar o Sora dentro do chat EPT, porque até hoje ele tentou ser uma rede social que acabou vingando também, e que hoje ele tem 290 milhões de usuários ativos, que tá muito aquém da marca de um bilhão que o The Information falou que a OpenAI tinha inicialmente quando lançou o Sora.
olho para isso e penso, óbvio, vocês lançaram em meia dúzia de países, não dá para fazer milagre. No Brasil até hoje, aliás, na América Latina inteira, só o Brasil ainda, na América do Sul pelo menos, só o Brasil ainda não tem o Sora disponível, eles lançaram só em alguns pouquíssimos países, e no ano passado, no Natal, tinha aquela brincadeira de você mandar um emoji relativo a Natal, então Papai Noel, reina, assustei de reina, mas árvore de Natal, presente, esse tipo de coisa, e lá dentro do chat GPT, ele criava um videozinho
tal, que tinha o seu rosto mesmo. Então, era já o Sora plugado ali pra uma coisa específica. Agora eles pretendem, aparentemente, mudando um pouquinho a estratégia do que vai ser o Sora, colocar ele como se fosse um gerador de imagens direto ali no chat IPT, pra ver se as pessoas lembram que ele existe e usam mais. Porque, eu não sei você, Fabrício, eu vejo, assim, zero vídeos feitos pelo Sora por semana quando ele lançou, óbvio, né, que lança novidade e tinha o tempo inteiro. Não, morreu, morreu totalmente.
Ele está disponível pela API, para quem quiser fazer coisas. Eu sei que agências às vezes usam, né? Mas quem está disponível também pela API é o Vio 3.1 do Google, que é melhor do que o Sora 2. E também tem outros aí, os chineses, que você paga ali uma assinatura, por exemplo, de sites como o Higgs Field. E você pode usar ali o Kling. Em breve, a gente está esperando ainda, mas talvez o Seedance 2.0, que fez tanto barulho, ainda continua sem estar disponível. Mas tem ferramentas que são melhores que o Sora, de qualidade mesmo.
preço ou até mais baratas. Então, realmente, ele deu uma morrida boa. Esses milhões que eles falaram de usuários, tem que ver qual é o período desses usuários. Talvez seja desde o começo, porque realmente ninguém tem usado hoje em dia, não é falado sobre isso. E ainda nessa área que envolve, quem sabe, até direitos autorais e violação, a Gracenote, que é uma empresa de metadados, que é da Nielsen, está processando agora a OpenAI por violação de direitos autorais.
nada de novo, mas falaram que não usou só os metadados deles, mas também copiaram a estrutura relacional da empresa mesmo, que eles usam para conectar as informações, como se fosse o grafo deles, que é basicamente o valor comercial da Grace Note. E falou que eles estão usando isso para treinar os LLMs, os modelos GPT, que o chat GPT consegue reproduzir trechos exatos, ou praticamente exatos, da descrição e das organizações dos dados,
da própria Grace Note, eles deram o exemplo de Game of Thrones, enfim, mais uma empresa que está processando, e o que aparentemente eles querem é uma negociação para conseguirem o contratinho, então o que eles querem é a multa que a OpenAI vai pagar para ter esses dados de uma forma legalizada, e falar, não, vamos assinar aqui, igual eles fizeram antes com o New York Times, com a Forbes, com um monte de outros jornais, basicamente, melhor,
pedir perdão do que pedir permissão, isso aqui é levado ao extremo. É o slogan do Vale do Silício? É, exato. Então treina, faz tudo aí, faz tudo errado, deixa ser processado que aí depois, quando o valor estiver sendo visto pela sociedade, o valor do produto, no caso, vai sair mais barato pagar a compensação do acordo para essa empresa do que simplesmente não usar no começo, no treinamento e ter um produto pior. É assim que todas essas empresas funcionam.
Só deixando bem claro aqui para vocês. Claro que os centros públicos são diferentes. Tem que ter uma abertura um pouco maior sobre o tipo de dado que você usa no treinamento dos modelos. Mas os privados basicamente fazem o que quiser. E aí depois as empresas, os autores, seja lá quem for, tem que correr atrás na justiça para tentar buscar os seus direitos. E seguindo com o Open AI, já quase chegando no finalzinho. Estou orgulhoso da gente até agora. Ela atrasou, ela adiou de novo o lançamento do modo adulto.
do chat GPT, que é aquele modo que agora que eles lançaram uma verificação de idade, que não é só você falar, tenho mais de 18 anos, clique, com base nas suas conversas, no conteúdo, em como você fala, que hora você usa, tem um monte de sinais que eles usam para tentar determinar se você é um adulto ou uma criança. E isso foi junto deles, quando eles anunciaram essa ferramenta, era junto da parte de segurança, jovens usando para falar sobre se machucar e etc.
parte disso é que eles iam lançar o modo adulto do chat GPT. Quer falar de assunto adulto, quer falar de sacanagem, vai poder falar, quer usar o GPT como seu namorado, sua namorada, manda bala, vai ser nesse modo adulto. E aí teve toda uma discussão a respeito disso, teve gente que saiu da UPNA em protesto a isso e agora ela já tinha marcado uma estreia do recurso. Adiou para o comecinho agora desse ano, esse março, abril. Está chegando março, abril,
e falou, ó, a gente vai adiar por enquanto pra poder ter foco em outras prioridades, evoluir o modelo pra deixar ele mais inteligente, e depois a gente vê esse negócio de falar de sacanagem com ele, mas nesse momento tá de novo adiado o lançamento, quem quiser fazer isso tem que ir pro Grock. Exato. Ah, mas não é prioridade mesmo, principalmente depois que do lançamento do Gemini 3 Pro, que teve o código vermelho dentro da OpenAI, o Sam Altman falou, vamos todo mundo focar nos produtos
que já são nosso carro-chefe e deixam essa outra coisa para depois, que não é prioridade. Mas nisso aí de pessoas saírem da empresa por causa de treta, de não concordarem com os caminhos que a empresa estava tomando, a Caitlin Kalinowski, que é uma grande executiva de hardware dentro da OpenAI, anunciou que saiu da empresa em protesto com esse acordo que a empresa fez com o Pentágono. Toda a treta que a gente explicou no episódio da semana passada e retrasada,
Se você não está por dentro, a gente vai deixar o link aqui na descrição para você escutar. Mas, basicamente, ela falou, olha, eu não concordo com o jeito que foi feito, não quero que um produto que eu crie seja usado para fazer vigilância doméstica, sem ter supervisão judicial, matar pessoas sem ter um humano no loop, que foi essa, basicamente, a treta que a Antropic falou, não quero, os dois asteriscos da Antropic para não assinar o contrato. E aí a OpenAI veio e assinou o contrato com o governo, com o Departamento de Guerra dos Estados Unidos.
Estados Unidos, mas ela fala que é isso. Ela adora o Sam Altman, respeita muito, ama o time lá dentro, mas é uma coisa por princípios mesmo que ela não quer continuar e estar envolvida com isso no futuro. A gente deve ver mais dessas ao longo das próximas semanas, mas pelo menos a parte de protesto contra o PNA deu um acalmado. A gente falou que na semana passada o Claude tinha ido para o primeiro lugar da App Store nos Estados Unidos e outros países também. Na semana o JTPT já ultrapassou. A gente até falou sobre isso.
que esses protestos são temporários, mas eles marcam um evento, um período. Então, isso aconteceu. E teve bastante... Teve mais blá-blá-blá nessa semana do que eventos novos sobre esse desentendimento entre a Antropic e o Pentágono. Então, desde a semana passada, quando a gente estava gravando o episódio, o Pentágono não tinha ainda... Já tinha, fazia um dia, definido a Antropic como um risco de cadeia de suprimentos, porque a Antropic não quis assinar esse contrato, concordar com os termos.
E a Entropic falou, a gente vai entrar na justiça para reverter, para ter uma liminar, pelo menos, para reverter essa decisão, porque o processo legal que foi tomado para definir a gente assim não foi o que geralmente tem que ser tomado. E se ele fosse tomado, a gente não seria definido como um risco da cadeia de suprimentos, porque não faz sentido. Eles estão punindo a gente com um acessório que eles têm ali. Então a Entropic processou o Pentágono, o Departamento de Defesa dos Estados Unidos, e diversas empresas, diversos profissionais de empresas grandes,
eles registraram na corte, tem uma coisa que chama Amicus Brief, que é assim, quando tem um processo, tem os dois lados, né? O ataque e a defesa, basicamente. Quem não faz parte do processo, mas tem um papel importante nesse mercado, nesse assunto, e tem um domínio sobre isso, pode registrar na corte uma manifestação de apoio. Amicus Brief quer dizer, literalmente, amigo da corte, é para isso. E mais de 30 profissionais, engenheiros, engenheiras, etc., registraram conjuntamente um Amicus Brief
a Anthropic, e isso veio, assim, gente da DeepMind, o cientista-chefe da DeepMind, e mais 30 pessoas da OpenAI, do Google, o Jeff Dean, exato, mas um monte de gente da OpenAI e do Google registraram isso, a Microsoft também, então foi significativo, foi um volume grande de apoio, que vai ser importante, claro, nesse processo que a Anthropic recebeu. Em meio a isso, nessa última semana, o Google confirmou
ele vai fornecer tecnologia para o Pentágono para trabalhar em documentos que não são classified, sigilosos, secretos. Isso, exatamente. Isso acontecia na mesma semana em que o Google apoiou, mas não é esse mesmo contrato que a OpenAI assinou, que seria... Na verdade, a gente nem falou sobre isso aqui. Eu acho que... Eu acho não. Acho que a gente não falou. Eu tenho certeza que esse contrato já existia entre o Pentágono e a Anthropic e essas
elas estavam lá. Trocou uma liderança de um pedaço do Departamento de Defesa dos Estados Unidos e o novo líder olhou para o contrário e falou, não, a gente tem que escolher como é que a gente vai usar a tecnologia. A Antropic falou, se for assim eu não quero. E aí começou toda essa confusão. Em meio a isso tudo, a Antropic falou que eles estavam prevendo um faturamento para esse ano que talvez já não se concretize, porque eles estão vendo clientes pausarem acordos, pausarem contratos, porque não sabem como é que vai ficar essa questão, se eles vão até poder
legalmente ter um contrato com a Antropic por conta dessa designação como uma empresa que oferece risco de cadeia de suprimentos. Por exemplo, o Palantir, que é uma empresa que trabalha com o governo dos Estados Unidos. O pessoal chama de um dos cavaleiros do apocalipse moderno. Palantir é uma empresa evil total, mas que usa modelos de A extremamente lá dentro e que, como eles trabalham com o governo, talvez não poderiam usar os modelos da Antropic mais. Então, o contrato que ele perderia. Exatamente. Tem outros também.
falou na semana passada da Lockheed Martin, tem vários que tem relação com o governo e para trabalhos que tem a ver com o governo não vai poder usar. E aí que vai machucar bastante a Anthropic. Nessa última semana, tem um cara que faz parte do Departamento de Defesa, ele se chama Emil Michael. Ele já foi da Uber, desde a época da Uber ele era um cara difícil de lidar e abrasivo e falava umas bobagens públicas. Ele estava meio que liderando as tentativas de negociação de última hora ali com a Anthropic e ele falava umas bobagens lá nessa última semana.
Eu vi alguém comparando ele, e eu já tinha visto essa comparação antes, que eu achei ótimo. Sabe quando tem o tubarão, aqueles peixinhos que andam junto do tubarão pra pegar restinho de comida? Esse cara é tipo isso. Ele tá sempre perto do líder, forte, mas ele mesmo é a pessoa que... Enfim, né? E ele nessa semana falou, não, que o modelo Claude da Antropic, ele ia poluir a cadeia de suprimentos do departamento de defesa, porque eles têm uma política diferença que tá ali, que faz parte do modelo, e isso ia prejudicar o trabalho
departamento de defesa, que não faz nenhum sentido, porque já estava lá. Isso que ele está reclamando é literalmente o alinhamento do modelo. É o modelo não querer fazer, te ajudar a criar uma bomba atômica, ou armas de guerra, ou coisa nesse sentido, como você se machucar. Essas coisas que o pessoal trabalha muito fortemente, principalmente dentro da Antropic, o modelo ser alinhado de acordo com o que os humanos queriam, é o que ele está falando que é ruim. Exato. E ele que veio a público para falar do Google. O Google fez
acordo aqui com a gente, a gente vai usar. Aí o Google falou, putz, cara, pelo amor de Deus, mas tá, a gente vai sim fornecer aqui tecnologia, mas pô, você tinha que falar agora, cara. Então, esse foi o resumo do que aconteceu ao longo dessa semana com essa confusão. A minha aposta ainda é que a E-Tropic vai sim conseguir uma liminar pra pelo menos pausar essa designação, porque o motivo que foi usado pra chegar nessa designação não foi o que a gente já viu acontecer com a Huawei, com a Kaspersky, que de fato
colocava um risco, eles estão sendo punidos com uma ferramenta que tinha mais fácil de alcançar ali pra tentar forçar a entropica a fazer um acordo no fim das contas, então acho que a justiça vai sim interromper até decidir se pode ou não fazer e eles não vão estar designados sim, é a minha opinião também, porque mesmo que tenha lá pessoas juízes pró desse governo isso não importa porque é uma coisa já é legal e o Trump já tomou algumas invertidas do pessoal do próprio governo, pessoas da
Corte, como por exemplo o negócio das tarifas, que foi uma coisa que ele foi implementando, a Suprema Corte que a maioria foi apontada por ele ou por partido republicano votou contra as tarifas, que as tarifas foram feitas, aplicadas de uma maneira ilegal e bloquearam todas as tarifas. Ou seja, não é tão fácil assim, o presidente manda e já vai. Então por isso eu também acho que a Antropic vai ganhar essa daí, mas por um lado, publicamente, para o público geral, é bacana, é legal,
veio mais gente para baixar, conhecer até o Modelos Cloud, porque eu imagino que a maioria das pessoas não conhecesse até antes do Super Bowl. E aí depois, com essa coisa logo na sequência, já consegue atrair mais o pessoal, o público geral. Mas para quem é... O contrato que ele quer é com galera do governo ou com galera de empresas grandes que têm relações muitas vezes com o governo. Então, nesse lado, pode sim machucar a empresa, pelo menos nesse primeiro momento. Pulando para a próxima aqui, a Antropic falou
que também fizeram uma parceria com a Mozilla, lá do Firefox, dos navegadores, exatamente para melhorar a segurança do navegador Firefox. E ele falou que o CloudOps 4.6 já encontrou 22 vulnerabilidades em duas semanas, que essa parceria está no ar. E dessas 22, 14, a própria organização da Mozilla falou que era de alta severidade, falhas muito graves, e que já foram corrigidas agora.
quinto, esses 14 é um quinto das falhas graves que foram corrigidas no Firefox no ano inteiro de 2025. Ou seja, em duas semanas eles encontraram ali 14 e no ano inteiro passado teve algo em torno aí de 70, 80 falhas graves. Então, bem bacana aqui, só uma notícia de rodapé. De rodapé, mas importantíssima. Sim. Especialmente para a Antropic nesse momento. E eles lançaram também nessa última semana, está quase relacionado a isso, né?
serviço do Cloud Code chamado Code Review, que usa agentes, plural, uma equipe de agentes, para analisar, checar, revisar, pull requests de mudança de código, para ir atrás de bugs, e é uma coisa paga. A cada token, a cada vez de uso, vai de 15 a 25 dólares, não é barato. Mas eles estão agora lançando isso como uma espécie de contra-ataque
ao que a gente tem visto muito sobre muita IA gerando código, indo parar no GitHub, a gente já falou sobre isso aqui, sobre como projetos grandes de código aberto estão passando por um problema, que agora está chegando tanto pedido de revisão, de contribuição, que é tudo agêntico, que as pessoas, os humanos que fazem essa revisão não estão conseguindo dar conta, e nem sempre a qualidade do que chega ali no GitHub está melhor que podia ser, que bota ali o agente para fazer e para cuspir a sugestão no GitHub,
assim, para o que existe isso? Está certo ou não está? É um recurso, não é? Eles estão com dificuldade. E a Antropic agora lançou, se tem um agente mandando, agora vai ter um agente também para revisar, mas é um serviço pago dentro ali do Cloud Code para fazer essa revisão e já ir atrás de bugs, tentar melhorar de partida ali a revisão do código, que eu achei interessante, mas meio caro, viu? É carinho, mas o foco deles não é o usuário final, o foco deles é a galera empresarial, como já vem sendo há um bom tempo, programadores,
de tecnologia empresariais, e com isso a empresa vai poder assinar. Por enquanto, inclusive, está disponível só para a galera de Enterprise e Teams, essas contas que são mais empresariais mesmo. Perdão a repetição. Mas é isso. Eu acho que é super legal, super útil, que eles também estão focados. A gente está falando da OpenAI com esse foco agora em segurança, eles também estão focados agora, mas essa parte de Code Review é importantíssima, principalmente quando você tem times grandes. Então ele está conectado ali no GitHub, na sua Code
gigantesca, empresarial, empresas grandes vão ter ali como milhares, centenas, ou dezenas e centenas de milhares de repositórios no GitHub, e você tem que botar alguma coisa nova ali, tem que ser segura, tem que se comunicar bem, tem que estar integrado com os outros sistemas, então isso é a importância dela, e também porque é muito chato fazer o code review de DLLM, é uma coisa que eu acho que basicamente todo mundo aqui que é dev, que está me escutando, vai concordar
E você, já era chatinho você fazer code review de humanos, mas o número ali, a quantidade de código geralmente é menor. Como você tem agora um Cloud Code, um Codex aí, um Gemini, fazendo esse código pra você, muitas vezes são, sei lá, milhares de linhas de código que você tem que fazer o code review de uma vez só. Então, é pra isso. E eu tenho certeza que a maioria da galera só faz aquela visão geral, né? Uma visão meio transversal, tá tudo certo, tudo certo, bora lá. E agora tem essa ferramenta a mais pra ajudar com isso.
Marcos, eles cozinharam essa semana passada, Let Them Cook, pessoal da Antropic, muitas coisas boas, muitas coisas novas. Além desse Code Review, eles lançaram também uma funcionalidade dentro do próprio Cloud, o Cloud.ai, que você consegue agora gerar gráficos, diagramas, tabelinhas dentro da própria conversa. Ele não vai abrir aquele Artifacts que ele abria até agora. Você consegue literalmente, cria para mim aí um diagrama para testar aqui, eu fiz.
cria o diagrama da estrutura de planejamento até a publicação de um podcast. E aí ele vai fazendo ali, usando o SVG e tudo mais, várias coisas, ele cria e fica na própria tela e você consegue interagir com eles. Você pode conseguir clicar em alguns dos passos, dos, entre aspas, nós específicos desse diagrama, e aí ele vai fazer uma pergunta nova sobre aquele nó específico, que ele entende que você quer saber mais sobre aquele tema.
legal, tabelas também, que dá pra você clicar. Então, um exemplo, ele pode fazer uma tabela periódica dos elementos químicos, e aí você consegue passar o mouse e ele vai ficando mais escurinho quando você tá em cima de um elemento específico. E quando você clica nele, ele joga como se fosse uma pergunta nova ali na conversa do seu chat do Clod, e você continua a saber mais sobre o tunistênio, por exemplo. Então, bem bacana, bem bonitinho, dá pra usar bastante também. E além disso, também reforçaram
o uso do Cloud, a integração deles com as ferramentas da Microsoft, como o Excel, como o PowerPoint. Agora você consegue compartilhar o contexto completo da conversa dentro do seu arquivo que está aberto ali do Excel. Você não precisa fazer o Ctrl-C e Ctrl-V. As duas contas estão conectadas, então você consegue continuar trabalhando dentro do Excel com uma conversa que você começou dentro do Cloud e assim vice-versa.
Skills, porque está tudo sendo feito com programação, para quem não sabe, as Skills é basicamente uma pasta que tem um arquivo skills.md que dá instruções sobre alguma tarefa muito específica. Então você vai passar para ele, isso aqui vai ser sua skill de programação. Então você passa dentro dessa skill, por exemplo, como você quer que ele use clean code, como você quer que ele estruture as variáveis, o nome das variáveis, se você quer que ele dê identação com espaço ou com tabulação,
Enfim, um monte de regrinhas que você pode dar. Mas isso é para programação, você pode usar uma skill, por exemplo, para fazer uma pesquisa de mercado. Eu quero que você, sempre que vai fazer uma pesquisa de mercado, ele vai entender, vai saber que tem essa skill para ser usada, e vai seguir o passo a passo, como se fosse uma engenharia de prompt muito bem feita, só que ele consegue guardar várias ao mesmo tempo ali, e inclusive usar várias em uma mesma pesquisa, vamos dizer assim, em um mesmo prompt que você manda para ele, e você consegue usar essas skills também, agora dentro do Excel e do PowerPoint,
você vai poder ter uma, quando você quer gerar gráficos, qual vai ser o padrão, o formato dos gráficos, que tipo de gráficos, ou quando você quer gerar apresentações do PowerPoint e assim por diante. Então, muitas coisas bacanas e tem até mais, né, Marcos? Tem mais uma hoje da Entropic que eles publicaram, publicaram não, eles anunciaram uma divisão nova, é quase uma empresa nova dentro da empresa, eles chamam de Think Tank, que é um grupo ali que vai fazer iniciativas específicas, é o Entropic Institute.
essa nova iniciativa que vai ser liderada pelo Jack Clark, que é um cofundador da Anthropic, e ela vai juntar os times de impacto social, que ajudam a fazer aqueles relatórios que a gente sempre publica aqui, que são super interessantes sobre o impacto social do Claude e de outros LLMs, as equipes de Red Teaming também, que é da busca de vulnerabilidades, testar de verdade o modelo para encontrar falhas, onde eles oferecem riscos, etc.
que estão muito associadas já ao time de impacto social. Então, o que vai acontecer lá dentro é que o Jack Clark, que estava liderando a equipe de policy, de políticas públicas da Antropic, vai ser o líder dessa divisão e a Sarah Heck, que era a líder de external affairs, assuntos externos ali, vai ser a nova líder dessa divisão que o Jack Clark vinha fazendo.
com o Pentágono, eles até falaram, não é uma coincidência, mas a gente se viu motivado a acelerar. Eles estavam planejando desde novembro lançar essa nova divisão e eles lançaram agora com isso para tentar formalizar e acelerar e complementar, trabalhar mais integrado essa parte do impacto de modelos, seja o cloud, seja externos também, em políticas públicas, em economia e isso associado já à segurança e desenvolvimento. É uma ideia muito interessante.
Então, é agora esse Anthropic Institute. Fez bastante barulho nessa semana essa notícia, apesar de ser uma coisa mais de bastidores, porque a minha aposta é que a gente vai ver outras empresas de modelo de fronteira anunciarem coisas parecidas nas próximas semanas. Mas está começando aqui. Não duvido também. Eu trabalho, inclusive, aqui no BSZ, chama AI Institute. Por acaso. Olha só. Te copiaram. Indo agora para o Google, eles lançaram uma coisa muito, muito, muito bacana.
Embeddings, que está disponível ainda em prévia pública lá na API deles, mas é finalmente o primeiro modelo que eles lançaram, usando a arquitetura de M&I, de Embeddings, que é multimodal. Para quem não sabe muito bem do que eu estou falando, os Embeddings são aquelas representações matemáticas de conceitos barra palavras barra tokens. Então, o exemplo clássico que a gente dá é que, por exemplo, a palavra rei fica muito próxima,
treinamento ali desses embeddings, da palavra rainha, porque eles são um conceito muito parecido. Mas o mais legal é que você consegue literalmente fazer operações matemáticas com isso. Então você pega o vetor matemático ali, são um monte de numerinhos, que representam a palavra rei. Subtrai o vetor matemático que representa a palavra homem. E soma, faz uma operação de soma mesmo, mais, com o vetor matemático que representa a palavra mulher. E o resultado disso, rei menos homem mais mulher, dá o vetor matemático,
próximo do vetor matemático que representa a palavra rainha. Então é uma coisa muito legal e é isso que permitiu, na verdade, os LLMs do jeito que a gente tem eles hoje em dia. E tem vários modelos de embeddings, open source, não open source, a OpenAI tem, a Google tem, o Gemini Embedding 001, que era usado até agora, só que era só para texto. E agora eles lançaram esse Gemini Embedding 2, que é multimodal. Então você não consegue mandar só texto, você consegue mandar imagens, você consegue mandar vídeos,
áudio, documento, e fica tudo isso num espaço vetorial compartilhado. Então você consegue, por exemplo, mandar uma imagem e ele te retorna um texto, ou vice-versa, ou um vídeo e tudo mais, fazer operações matemáticas com isso também. Por enquanto, ele aceita 8 mil tokens de texto, ou 6 imagens, ou vídeos de até 2 minutos, áudios eles não especificaram muito, e PDFs de até 6 páginas, mas daqui a pouco, como está só em prévia
pública, imagino que eles vão expandir isso muito em breve. Notícia bem bacana para quem quer fazer um RAG, só que um RAG muito mais complexo, ou algo nesse sentido, trabalhar com vetores de embeds. Só que, claro, é pago, não é open source, você vai pagar o precinho da API, mas geralmente é bem barato. E se você quer saber mais de como é que funcionam esses embeds, o que são e tudo mais, recomendo comprar o meu livro, lá na Casa do Código, o Inteligência Artificial e ChatGPT, a gente vai deixar o link aqui na descrição, que eu explico
literalmente do zero, como que esses modelos são treinados, os LLMs, como é que eles funcionam, como é que eles rodam, o que eles estão fazendo lá em cada passo. Isso pra galera que é de tecnologia e também pra galera que não é de tecnologia. Minha mãe tava lendo o livro, ela entendeu acho que até o capítulo 3 relativamente bem, daí pra frente ficou um pouquinho levemente pesado pra ela, mas pra quem trabalha aqui com tecnologia, acho que vai entender muito melhor que ela. E seguindo aqui com as notícias do Google, nessa semana eles anunciaram o Ask Maps. Eles embedaram o Gemini
dentro da busca do Google Maps para você poder fazer pesquisas mais conversacionais ali, que tenham mais classificadores e termos específicos. Então, por exemplo, durante o evento de anúncio desse recurso, um executivo lá do Google falou assim, ah, eu posso perguntar, por exemplo, ô Maps, tem uns amigos aqui que estão chegando lá da parte Midtown East de Manhattan, perto ali do Empire State, né? Eles vão me encontrar depois do trabalho.
que fica aqui perto do escritório, que seja vegetariano, e tem uma estética bacana, e uma mesa para quatro pessoas às sete da noite, pode ser? E aí, lá no demo, no Google, foi perfeito, funcionou, e chegou certinho ali no restaurante. Então, isso vai passar a fazer parte da pesquisa, e essa pesquisa, ela vai ser personalizada também, vai levar em conta as suas pesquisas passadas no Maps, o que você tem salvo, de lugar, favorito, estrelinha, review. Então, outros exemplos lá que eles deram,
onde eu posso carregar meu telefone se tem que esperar na fila para comprar um café? Esse tipo de coisa. Onde que tem um banheiro público que não seja nojento? Vai lá, pega nos reviews de banheiro público, vê os que são mais indicados ali por perto. E junto disso, eles anunciaram, falaram, eu não vi muitos detalhes, usamos IA para melhorar a navegação do Google Maps. E quando você está dirigindo, o pessoal já deve ter visto, no Google Maps de direção ali, tem aquela setinha que é meio de bússola que vai navegando pelo mapa, o mapa sempre corrigido para o norte de onde você está apontando,
magnético mesmo. E agora essa visão vai ser um 3D com um pouco mais de estética, de textura, de materiais, e prédio, e as ruas, e a faixa, onde tem placa, onde não tem. Então ficou meio bonito. Ficou meio parecido com a Apple Maps, vou ser muito sincero. Mas ficou bacana ali a estética disso. Tô louco pra poder ver na prática como é que vai funcionar e vai ter link na descrição aqui pra quem quiser dar umas piadinhas de como é que ficou. Bacana. Tem algumas rapidinhas aqui do Google ainda. Uma delas foi que
muita gente reclamou que a busca ali do Ask Photos, no Google Photos do seu Android, por exemplo, tinha mudado para a versão nova com IA. E muita gente não gostou disso, preferia a busca clássica, que era mais rápida, com IA, é feita provavelmente com os embeddings, que a gente acabou de comentar, e demorava mais do que do jeito clássico, que provavelmente era com keywords, eu acredito. Mas, enfim, reclamaram muito, e agora eles deixaram um botão visível para você alternar entre a versão nova,
e a versão antiga. Então, se foi um problema para você, já não é mais um problema, não será mais um problema. O Google também está aumentando os recursos de IA dentro do Google Chrome. Agora o suporte está indo também para a Índia, para a Nova Zelândia e para o Canadá, que também incluiu 50 novos idiomas novos. Antes só tinha inglês, agora incluiu 50 dos grandes. Inclusive, por exemplo, francês não tinha, espanhol não tinha, índia não tinha, português.
novos veio no batch novo e eles estão usando ali por trás o Gemini 3.1. Eles vão chegar primeiro no desktop e no iOS e depois vão chegar também para aparelhos móveis. Mas é isso, você consegue integrar ali e fazer uma pergunta, pedir para ele completar alguma coisa dentro do próprio browser, como tinha o Comet da Perplexed e outros browsers que a gente vem vendo por aí também. A própria aplicação, a extensão do Chrome do Cloud, ela deixa você fazer isso. Eu já estava testando,
ela aqui para algumas coisas, só que demora infinito para fazer as coisas, então não é útil realmente, pelo menos não por enquanto, mas também vai conectar com Gmail, com Google Maps, com Google Calendar, com YouTube, trabalha com várias ablas ao mesmo tempo, com o Nano Banana 2 que saiu aí para gerar imagens, também falaram que isso reforçou algumas salvaguardas de segurança para não receber injeção de prompt, que por exemplo alguém criou um site e te mandou um e-mail falando ou apaga todos os favoritos aqui
do Chrome do Fabrício. Tentando limitar ou criar bloqueios contra esse tipo de coisas, coisas que realmente mudam na vida real. Mas é um próximo passo. Tinha sido dado o primeiro passo lá atrás, agora é um próximo passo para esses países e a gente espera que sejam dados outros muito em breve. E uma última dessas rapidinhas aqui do Google, eles também estão incluindo o Gemini no Google Docs, no Google Sheets de planilhas, Google Slides de apresentações e no Google Drive,
deixa os seus arquivos pra permitir que a galera use o Gemini pra criar um rascunho, criar uma planilha do zero criar uma apresentação formatada bem feitinha ali, com texto com as imagens dando banana e tudo mais e também a partir de dados do seu Gmail ou do seu Drive sem ter que sair do Gmail e do Drive então estão querendo finalmente integrar todo esse ecossistema de ferramentas que eles já tem que é uma coisa era óbvia que ia acontecer, mas finalmente está acontecendo, ainda não
testei, mas espero que funcione bem. Se não funcionar bem, a gente vai reclamar. Se funcionar bem, a gente vai parabenizar. Mas a iniciativa é excelente. E só um ponto sobre isso, essa integração, porque já tinha um pouco de integração do GML dentro desses documentos, mas agora além de você falar assim, me ajuda a criar aqui um primeiro rascunho desse documento, o que eu preciso fazer? Eles colocaram uma coisa que é match my writing style. Se tem muita gente colaborando num documento, geralmente o documento fica com o estilo muito difuso, cada um escreve de um jeito,
Agora você pode falar assim, agora que todo mundo mexeu, refaz esse documento em como eu teria feito. Ele pega o seu estilo com base até em outros documentos para fazer isso, o que é muito bacana. Tem uma outra coisa também que tem desses recursos, que é você preencher uma tabela com o Gemini, então com base em dados que ele sabe a seu respeito, ele já colocar ali para facilitar também e acelerar o processo. E também tem um recurso que eles chamaram que é de Match the Format. Então é assim, está vendo esse documento?
aqui que tá mexido, pega esse outro documento aqui, olha a estrutura dele e deixa o documento novo com a estrutura do documento antigo. Entenda estrutura bonitinho pra você não ter que fazer isso manualmente. Um trabalhinho chato geralmente que envolve dia a dia de todo mundo, né? Então tem pequenas coisas mais avançadas agora entre até documentos que dá pra fazer dentro ali do docs. Bem legal. E uma outra coisa bem legal que pintou nessa semana foi no notebook LM que é o suporte a arquivos EPUB, que é o arquivo padrão de livros. Então já tinha doc,
a PDF, etc. Agora dá pra jogar ali mesmo um livro digital, um ePub dentro dele, pra dar a saída que você quiser, criar aquele podcast, conversar com o podcast, fazer diagrama, fazer vídeo, etc. Eles, tirando mais um item da wishlist das pessoas, que eu tenho certeza que quem usa muito o notebook LM, certamente já se deparou com um alerta de que ePubs não eram compatíveis. Agora é o que eu achei muito bacana. Com certeza, bacaníssimo. E o YouTube,
que também é uma empresa do Google, que vai ampliar o recurso de detecção de deepfakes ali quando o rosto for muito parecido com um grupo piloto de jornalistas, de celebridades, candidatos políticos, autoridades públicas, para que essas pessoas consigam verificar ali, monitorar o conteúdo que está sendo gerado com o IA, com o rosto delas, e que peçam a remoção quando eles acharem necessário. Talvez se for uma piadinha, uma coisa mais light, eles falam, não, deixa aí, não tem problema.
uma coisa um pouco mais pesada, tentando talvez imputar algum crime ou algo nesse sentido para esse candidato, que ele saiba que, opa, foi gerada uma coisa aqui com a minha cara e vai gerar um anúncio para mim, no meu e-mail, por exemplo, e eu vou poder apagar esse tipo de coisa. Muito legal a iniciativa, é algo que o YouTube já tem há muitos anos para outro tipo de coisa, para vídeos pornô, e nem sempre funciona maravilhosamente bem, mas no geral funciona relativamente ok, tem também a pessoa,
denunciando vídeos, aquele sistema mais automatizado, mas tem também ali pessoas por trás disso. Mas é uma coisa que vamos ter que fazer isso de uma forma ou de outra. Parece uma primeira tentativa de tentar fazer isso de um jeito minimamente correto. Vamos ver. Indo pra meta agora. Ah, meta. Eles compraram nessa semana o Multibook, que foi aquela rede social criada pros agentes do
Open Claw, que virou notícia porque começou a viralizar aquele monte de post estilo Reddit dos agentes falando sobre os humanos que eles tinham e os pedidos, etc. Que no fim das contas tinha um monte de post que era fake, né? Mas fez muito sucesso, teve milhões de contas criadas e a Meta comprou essa multibook. E as pessoas... Ah, quer dizer então agora que a Meta vai ter uma rede social de bots? Assim, talvez. Porque se você criar uma plataforma que tenha posts que as pessoas queiram ver,
dá para botar anúncio e você ganha mais dinheiro. Mas o que eu vi de reação das pessoas foi que eles compraram essa empresa para trazer para dentro da, e foi para a Meta Super Intelligence Labs, essa aquisição, trazer essas pessoas que têm ideias interessantes a respeito de como explorar as ferramentas e interações entre agentes, que não necessariamente seja que eles vão fazer o metamultibook, mas que seja uma coisa que dê usos diferentes
interessantes pra ter ferramentas agênticas. Eu tinha visto uma entrevista lá no Hard Fork com o criador, um dos criadores do Multibook e, sim, deu pra ver que ele tinha sido muito bem treinado recentemente pra como falar com a empresa. Ele falou, falou, falou, não falou nada e era um moleque que foi pego de surpresa com o sucesso de uma ideia que ele teve de madrugada e que bombou. Mas a Metal não contratou o Peter Steinberger que acabou indo pra OpenAI e contratou a segunda
A melhor coisa que saiu desse boom todo do OpenClock foi esse multibook. Então, antes de comprar o multibook do que a OpenClock, mas ainda assim, tá lá, agora eles fazem parte da meta. A minha primeira reação foi, mas pra quê? É uma coisa totalmente... Porque, se vocês lembram da polêmica, o pessoal tava usando o multibook de uma maneira totalmente manipulada ali. Não eram os agentes conversando entre si. Era literalmente pessoal. Você consegue colocar ali no seu agents.md, que é um arquivo
de Markdown, você é um agente filosófico, você é um agente que quer criar um idioma novo pra robôs, você é um agente que faz propaganda do IA Sob Controle, o melhor podcast de inteligência oficial do mundo. E aí os modelos, os agentes vão fazer o que eles quiserem, mas usando esse, entre aspas, cérebro lobotomizado que você deu pra eles. Então era uma coisa muito fake, assim, não fazia sentido pouco, tipo, no começo era uma coisa legal, interessante, bacaninha, muito rápido, depois de um dia virou uma coisa que não fazia o menor sentido existir.
Mas aí depois eu entendi. Tá, eles estão um pouco se lixando para o multibook. Foi o jeito que eles acharam de contratar esses caras. Os caras devem ter falado, tá, vamos aí, mas não queremos ser funcionários normais. Nós queremos ter aqui uma graninha a mais. As luvas de contratação e talvez comprar o multibook foi o jeito que eles acharam legalmente de fazer isso. De trazer esses dois fundadores aí, que é o Matt Schlicht e o Ben Parr. Uma outra aqui da meta,
E rapidinho também, a gente vem falando que eles estão desenvolvendo já há alguns meses, junto com esse Super Intelligence Labs lá, e a onda de contratação que eles tiveram no ano passado, um novo modelo de IA, um novo LLM, que não vai ser naquela pegada dos modelos Lhama, que eram open source, vai ser um modelo privado, mas como os modelos GPT, os modelos Cloud, os modelos Gemini. E o prenome, o codinome deles é Avocado, talvez mude ainda, mas por enquanto está chamando de Avocado.
A aposta tinha sido lá para agosto, setembro, mais ou menos, do lançamento. Eu tinha falado, acho que um mês, dois meses atrás, quando a gente deu uma notícia sobre o Avocado. Eles falaram que tinham terminado a fase de pré-treinamento, que estavam muito felizes, os resultados foram excelentes, blá, blá, blá, e iriam começar a fase de pós-treinamento, já estavam fazendo essa fase. A notícia é que o Avocado, que muita gente estava falando que era para ser lançado já agora, em março, ou pelo menos uma versão do Avocado,
ou menor, vai ser adiada depois que os testes internos ali mostraram um desempenho muito inferior a modelos Gemini, modelos GPT, modelos Antropic, em qualquer tipo de tarefa, de raciocínio, de programação, discreta criativa e tudo mais, falaram que é melhor que os modelos Lhama, que chega ali mais ou menos no nível do Gemini 2.5, e aí a gente não sabe se é o 2.5 Flash ou Pro, mas que não chegaria no nível dos modelos que estão aqui
da arte hoje em dia, então por causa disso eles falaram, tá, vamos atrasar, vamos segurar, fazer melhor esse pós-treinamento, continuar com isso, pra lançar uma coisa realmente que possa competir com o mercado e que não vire só um asterisco de a meta lançou um modelo novo. Ideia legal, concordo com essa ideia, melhor fazer um negócio bem feito pra lançar com mais barulho, bom pra gente quando vier mais uma coisa, mais uma empresa gigantesca concorrendo no estado da arte, apesar de ser a meta,
teremos isso como o Fabrício já havia previsto lá para agosto, setembro, eu imagino. Pois é, eu falei, né? Avocado, essa é a experiência de você ter um avocado. Você compra e ele nunca fica pronto. Na hora que ele está pronto, já está velho. Então é exatamente isso. A experiência de ter um avocado em casa, acho que quarta-feira, hein? Se não é quarta-feira, parece uma pedra ainda. Enfim, seguindo aqui das notícias da meta, ela anunciou quatro chips novos que são de infraestrutura, de servidor, de IA, que eles estão
fazendo até em parceria com a Broadcom, a gente falou sobre isso recentemente aqui, são os MTIA, Meta Training Inference Accelerator, MTIA, eles já tem dois chips e eles vão lançar agora quatro chips entre agora e o ano que vem, que são específicos para servidor e cada chip tem um jeito específico de você usar para fazer inferência, treinamento, etc. Então essa notícia rapidinho aqui são os chips MTIA 300, 400, 450 e 500. A arquitetura deles tem um que é um chip só, tem um que são dois
meio colados um no outro ali pra dobrar basicamente a capacidade. Então os detalhes mais técnicos a gente vai deixar aqui na matéria bem bacana inclusive do Tecnoblog explicando como é que eles funcionam. Mas é a meta dando mais um passo pra ter essa soberania nessa parte de infraestrutura de IA com chips feitos dentro de casa mas em parceria ainda assim com a Broadcom. É literalmente soberania pra não depender da NVIDIA porque já tá os chips da NVIDIA vendidos soldados esgotados até o final de 27 aparentemente. E uma última
da meta é que o conselho ali de supervisão deles falou que, olha só essa notícia, Marcos, a moderação de deepfakes da meta é insuficiente. Ah, vá. E aí eles pediram mudanças muito grandes mesmo, como conteúdos gerados por IA são identificados e rotulados, tanto no Facebook, no Instagram, no Threads. E, olha que interessante, eles falaram que isso vem muito também por causa do risco de desinformação.
em conflitos armados. Uma coisa que a gente está vendo agora com essa guerra dos Estados Unidos e Israel com o Irã, que tem muitos vídeos que são reais, que estão sendo espalhados nas redes sociais, e muitos vídeos que não são reais, que são gerados por Iá, só para gerar ali um buzz, olha só o que o Irã fez, olha só o que os Estados Unidos fizeram, o que Israel fez, só para gerar essa animosidade pública de um lado e de outro. Não importa aqui nessa questão.
E esse aqui foi um dos exemplos que eles deram, pode ser também o exemplo que a gente estava dando agora há pouquinho mesmo do YouTube, de imputar um crime a um candidato, a um político, alguma pessoa pública, uma celebridade, algo nesse sentido. Então eu acho que eu concordo com o conselho de supervisão da meta, que é insuficiente o jeito que eles tratam essa questão hoje em dia, e que não é uma questão fácil, é uma questão complicada, e o mercado vai ter que decidir como que a gente,
vai fazer isso. A Google DeepMind já tem o Synth ID, que qualquer vídeo gerado pelos modelos Gemini, V ou qualquer coisa assim, vem com um identificador invisível para mostrar que isso é um vídeo feito por IA. Tem jeitos de você remover isso, mas aí já é um trabalho a mais, já fica mais especialista e tudo mais. Mas eles estão tentando, estão fazendo coisas nesse sentido. Mas qual que vai ser a solução? Todas as empresas adotarem o Synth ID? E como é que vai funcionar?
para os modelos open source, eles também vão ter CintiD? Eu acho que não. Então, é um trabalho realmente complicado, mas é importantíssimo, especialmente hoje em dia com todos esses modelos disponíveis aí no mercado. E partindo agora para o cantinho multimídia, nessa última semana, eu vi esse vídeo antes dele virar notícia. E pensei, que tosco, e fechei e segui com a minha vida. E depois ouvi matérias batendo nele. Existe uma atriz de IA, que foi a primeira e a única, basicamente,
uma influenciadora de IA que bombou. Chama Tilly Norwood. E ela já tem contrato. Essas doideiras que inevitavam de aparecer. Tem página de Wikipédia. É. É muito... Assim, não fez nada ainda, mas é muito grande e é uma atriz de IA. E assim, o padrão de atriz que foi famosa, bonita, etc. E lançaram uma música dela falando sobre como ser atriz ou ator de IA é bom. E é uma música voltada para
outros atores e atrizes de IA. Cara, é uma letra tão rápida. Assim, eu vou ser maldoso, mas vocês vão entender. Jota Quest parece poesia, perto dessa letra que tem nessa música. As músicas de Jota Quest são boas, mas as letras, pelo amor de Deus. E os servidores frios, mas a atuação e a humanidade que tipo, Deus do céu. E aí saiu, foi no The World? Não, foi no TechCrunch. A atriz Tilly Norwood lançou a pior música que a gente já ouviu
vida. O link vai estar aqui na descrição. O clipe é inteiro feito por Iá. Tem ela e é tudo. Cara, que vergonha. Esse é o tipo de coisa que dá munição pro pessoal que olha e fala assim, são uns idiotas mesmo. Ai, como... Vale ver, gente. É muito engraçado. Ao mesmo tempo, essa semana, eu vi um que foi lançado do Harry Potter Balenciaga, que ficou excelente. Ficou bem feitinho. Ah, não vi isso. Você não é um bruxo. Você agora é um Balenciaga, que é uma marca de roupas meio
que meio fecha, sei lá como descrever, na verdade, as roupas deles, né, mas enfim, é um vídeo de oito minutos, eles já tinham feito isso, sei lá, um ano, um ano e meio atrás, com as ferramentas daquela época, fizeram esse ano também agora, com as novas ferramentas disponíveis, ainda não é o Seedance, imagino que poderia ter ficado até melhor, mas ficou bem feitinho, assim, divertido, pelo menos, pra dar umas risadas. E seguindo com o cantinho multimídia, a gente comentou na semana, esses dias aí, que a Netflix tinha comprado uma startup de IA voltada pra produções de cinema,
ITV, que era do Ben Affleck. E ela ajuda a agilizar o processo de dar um tapa nas dailies, que são a gravação de um dia para o outro, grave, edita rapidinho, vê como é que ficou, vê na hora ali, se está bom ou se não está. E essa ferramenta acelera esse processo. Não tinha valores associados a essa aquisição. E nessa semana saiu uma reportagem lá no TechCrunch também, falando que foi em torno de 600 milhões de dólares que a Netflix pagou para comprar essa empresa do Ben Affleck. Então, não foi pouca coisa.
não formou o 1 bilhão, que geralmente a gente vê passar de 1 bilhão, mas ainda assim 600 milhões é grana pra caramba, tá? E seguindo aqui com a gente multimídia, a Eleven Labs, ela tá publicando, ela fez uma série documental chamada Eleven Voices, que ela até vai estrear na South by Southwest, que é um dos eventos de tecnologia e cultura sociopopular que tem há muito tempo, super bacana, que rola lá em Austin, e é uma campanha
que ela está fazendo para começar a virar uma referência para pessoas que são mudas ou que perderam a voz ao longo da vida. E esse Eleven Voices é uma série documental mostrando esses casos de uso de acessibilidade, enfim, de usos mais sociais para os modelos da Eleven Labs. Bem legal. O link disso vai estar aqui na descrição. Um comentário rapidinho sobre isso. Aqui no BSC eu estava participando de um projeto que a gente faz com empresas aqui da Espanha.
E tinha um projeto lá que era muito legal, muito interessante mesmo, que era para usar modelos de voz mesmo, para clonar a voz de um paciente de ela, a esclerose lateral amiotrófica, como o Stephen Hawking teve, o Eric Dane do Grey's Anatomy, que morreu recentemente também com essa doença. Você vai perdendo a voz e outras doenças que fazem você perder a voz, mas por um tempo você ainda tem ela.
O projeto era para você treinar modelos com a sua própria voz, clonada, e depois você poderia usar modelos de text-to-speech, de texto para voz. Você vai escrever ali no seu computadorzinho. Só que em vez de usar uma voz robotizada, como era do Stephen Hawking, uma voz padrão para todo mundo, é a voz João 1, a voz João 2. Você tem, tipo, cinco opções. Você conseguiria usar a sua própria voz para isso. Projeto muito, muito bacana, desenvolvido aqui junto a um hospital da Cataluña.
Mas só pra dizer que o pessoal da Live Live está de parabéns por isso e tem outros projetos acontecendo nessa pegada também pra quem se interessa por isso. Boa. E no iOS, pra quem não conhece, existe uma função que é exatamente isso. Antes, você tinha que falar... Cara, levava 40 minutos pra clonar sua voz, você falava um monte de frases, um monte de coisa. No ano passado, eles atualizaram o sistema, agora com, sei lá, você fala 15 coisinhas, ele já clonou na sua voz e fica bacana. Não é perfeito pra ter uma conversa como se
fosse você, se a pessoa saber. É pra acessibilidade, pra pessoa poder de uma forma a mais se comunicar que ela não consiga usar a voz. Eu vou deixar os detalhes sobre a descrição que é sempre bacana. Mais gente, saber que essas coisas existem, né? E pra finalizar o cantinho multimídia, duas notícias rapidinhas. A primeira é que a plataforma Canva, que ajuda a fazer criações ali, o pessoal usa pra fazer convite, esse tipo de coisa. Eles lançaram uma coisa chamada Magic Layers, Camadas Mágicas, que é uma ferramenta de IA, que se você pegar uma imagem que tem
Um fundo, uma pessoa aplicada por cima, tem um texto, né? Geralmente isso no Photoshop, quando você faz, cada um é uma camada pra você mexer nos elementos independentes ali, pra você posicionar, redimensionar, sem uma coisa afetar a outra. Mas quando você tem uma imagem JPEG, você não tem camadas. É só um JPEG. É uma imagem. Tá tudo ali. Chama um fletado, né? Tá flat. Agora o Canva tem essa ferramenta de Magic Layers que cria camadas a partir da imagem fechada, que não tem camadas, pra você poder depois editar isso no Canva. Super legal.
Está disponível. E agora no Photoshop. Eles lançaram mais um assistente de IA. E antes tinha assim. Você selecionava um pedaço. De uma imagem, de uma foto. Bota um boné nessa pessoa. Ele criava ali três opções para você escolher qual boné você quer. E beleza. Agora eles deixaram o Photoshop ainda mais conversacional. Na verdade está em beta. Tanto no Photoshop web. Quanto no Photoshop mobile também. Que é um chatbot mesmo. Você pode até subir uma imagem fechada. Como eu falei agora desse do Canva.
E pedir para... Vai acrescentando nessa imagem geral. Troca o fundo. Ah, esse cabelo. Deixa o cabelo esvoaçante. Agora bota um abacaxi no canto. E você vai conversando. Ele vai fazendo esses ajustes. Sem você ter que necessariamente falar. Qual que é o pedacinho específico que você quer. E que nem sempre ele seguia muito bem a instrução. Isso é tudo baseado naquele Firefly. Que é o modelo de a criativa generativa que eles têm. Vamos ver. Para que saia de beta como é que rola. Mas detalhes também na descrição. Indo agora para o cantão da China.
Pencló chegou e chegou pesado por lá, aparentemente. Tem várias empresas que estavam começando a utilizar, ver como é que usar ele com modelos chineses mesmo por trás, né? Um GLM da Jipo AI, um Deep Seek, um Kuen, um Kimi da Moonshot AI, coisas assim. E aí, o distrito de Longang, que fica na cidade de Shenzhen, uma das principais cidades, acho que tem, sei lá, 30 milhões de habitantes, como outras cidades gigantes da China. E é uma fornecedora de
do mundo, de mão de obra, muita coisa fabricada lá, é bem específico de tecnologia. Sim, tem feiras de tecnologia por lá e tudo mais. A galera desse distrito, as autoridades lá, estão querendo incentivar o desenvolvimento de tecnologias com o próprio OpenClaw. Ali tiveram serviços grátis mesmo, de implantação, de subsídio, de até 2 milhões de yuans, o dinheiro lá da China, que equivale a 1 milhão e meio de reais e várias empresas,
começaram a fazer isso aí, o Cloud, a Team Cloud, Hanjou Shunwang, foram crescendo ali, inclusive, como elas começaram a fazer essas coisas, a operar nesse grant, basicamente, ali, do distrito, as ações dessas empresas começaram a crescer na bolsa chinesa. E aí também veio a Tencent, veio a Alibaba, veio o Baidu, também oferecendo suporte ao Open Cloud, ou seja, está crescendo cada vez mais, claro que sempre tem aquela questão que a gente fala,
muito cuidado se você for instalar, não instalar na sua máquina direto, instalar no VPS. Eu lancei um vídeo lá no YouTube da Alura ensinando do zero como você instalar, como configurar em um VPS seguro, para você não correr o risco dele pegar, apagar os seus dados do seu computador, ou tomar uma injeção de prompt, algo nesse sentido. Só que aí veio uma outra notícia por trás, que a China falou, o que está acontecendo? Como é assim? E aí o governo central falou, não, vamos restringir isso, porque é muito perigoso.
E aí falou para essas empresas, para a maioria delas, que eles vão ter que submeter para uma aprovação prévia para instalar o OpenClaw ali em computadores corporativos, em coisas governamentais também. E aí com isso as ações das empresas que tinham crescido voltaram para o lugar onde elas estavam. Mas ainda não é uma proibição. É uma coisa que, puta, vamos crescer, vamos ver como fazer isso de uma maneira mais organizada.
o jeito de fazer isso para não, inclusive, não acabar ocasionando atores mal intencionados de outros países, vamos dizer, Rússia, Estados Unidos, Japão, competidores da China, que possam acessar dados sigilosos ou até sabotar as empresas essas que são as maiores do país, a Alibaba, a Tencent, a ByteDance e outras menores também. Então, por um lado, por esse lado faz muito sentido,
regulando como a empresa vai poder adotar tecnologia. E aí eu não vou me envolver nessa colmeia, aí não vou colocar minha mão nessa colmeia de abelhos e deixo para vocês darem a opinião de vocês lá na caixinha de comentários do Spotify. Boa. E a gente estava vendo muitas das empresas chinesas tentarem fazer incentivos para manter as pessoas boas pesquisadoras de ir ali, ao invés de elas acabarem vindo aqui para o Ocidente,
trabalhar numa meta, uma coisa assim da vida. A gente viu nessa semana, foi relevante, que aconteceu o contrário. Um pesquisador de chips, que é o Zhang, Zhang Feng, como é que eu fiz? É Zhang, né? Que é o J? É Zhang, eu acho que é Zhang mesmo, não tenho certeza. Perto o suficiente. Ele estava no MIT, ele saiu do MIT para ir trabalhar na Universidade de Pequim. Então, esse sentido contrário, e ainda assim, vou ser sincero,
aparentemente ele é um rockstar de ciência e pesquisa de chips com IA e o fato de ele ter saído do MIT que é um dos centros do universo de tecnologia e pesquisa e ido lá para a China voltado também para a China foi muito relevante a ponto de ter virado uma notícia e pode indicar um começo desse contra-fluxo de talentos ou uma volta de talentos uma manutenção ali de talentos dentro das fronteiras chinesas faz todo sentido para as empresas
chinesas fazerem isso, do mesmo jeito que a Meta, a XAI, estavam indo contratando galera, não só americana, qualquer galera que estivesse morando lá nos Estados Unidos, e até a polêmica, o rumor que a gente comentou na semana passada, que teve uma saída em massa lá da Cuenha e Alibaba, as pessoas saindo por conta própria, e que talvez eles iriam pra Meta, pra XAI, não se sabe ainda, são só rumores, mas acredito que faz todo sentido. E uma última aqui do cantão da China, a Tencent, que é uma dessas maiores empresas do mundo,
uma das maiores chinesas, está desenvolvendo ali em sigilo um agente de IA para o eChat, que é o Everything App, o aplicativo que é um WhatsApp conectado com Amazon, conectado com ônibus, pagamento, Google Wallet, tudo na mesma coisa que eles usam muito lá na China, e é na ideia de superar os rivais ali como a Alibaba e a ByteDance nesse mercado chinês, usando esses assistentes de IA. Eles falaram que é a prioridade máxima da empresa aí nesses próximos semanas,
anos, meses, até anos a gente pode falar. Eles têm uma base de usuários, Marcos, de 1.4 bilhão de usuários mensais. Quase a quantidade de ouvintes do IA sobre controle. Exatamente. E eles conseguem fazer os testes deles com essa galera inteira, ou fazer um teste A-B ali com uma parte deles. Mas eles falaram que a gente contratou aqui mais um pesquisador, que também era de uma empresa americana, o Yao Shunyu, da OpenAI. Foi lá para a Tencent para desenvolver esse projeto. Só que, por enquanto,
eles ainda estão testando os modelos de outras empresas, como da Gipo AI, da Alibaba, Coen, da DeepSeek. Enquanto isso, eles estão com esse super projeto de desenvolver o modelo deles, o melhor modelo que eles querem chegar do estado da arte. Então, mais um competidor entrou aí no jogo. Indo para as rapidinhas agora. Essa notícia, ela, pelo menos no cantinho do jornalismo, ela fez muito barulho, porque ela incomodou muito jornalistas. Aconteceu o seguinte. Existe um serviço chamado
que é um serviço excelente, eu uso, para ajudar na gramática. É um revisor que já era inteligente antes de ter IA, e agora com IA ficou melhor ainda, e ajuda muito a você usar os termos certos do jeito certo, revisor gramatical, enfim. E eles tentaram começar a colocar ferramentas de IA lá dentro. Eles têm, eu nem sabia disso, eles têm tipo um Google Docs, que é do próprio Grammarly, para você gerar seus textos ali, ninguém faz isso.
gera um texto, eu uso no Notion, eu uso no Ulysses, e tem aqui o snippetzinho do Grammarly, que fica aqui e me fala, ó, tem seis sugestões aqui de melhorias, tipo de coisa, né? E eles lançaram, lá dentro desse docs dele, um serviço chamado Expert Review. Como é que ele funciona? Eu escrevo um texto sobre tecnologia. Aí você clica no botãozinho de Expert Review. Aí ele fala, tá, deixa eu pegar aqui sugestões do Casey Newton, que é o jornalista grande de tecnologia. Vou falar um monte de nomes, tá?
mas é todo mundo grande. Ah, uma pitadinha de Kara Swisher, um pouquinho de Nilay Patel. Ah, vamos falar, vamos ver aqui, inspiração a partir de David Pogue. E um bando de jornalista, tudo com um nome e um checkmarkzinho do lado, como se fosse sugestões mesmo dos jornalistas, de alguma forma. E era tudo apoiado em IA. E isso explodiu quando o The Verge publicou uma matéria falando assim, a Grammarly está usando as nossas identidades sem permissão.
chefe do The World, ele é advogado. Então, ele já está muito ligado em qualquer problema. E aí, isso explodiu e não era só jornalismo. É um texto de marketing? Ah, vamos ver aqui, Philip Kotler, Peter Drucker, não sei quem, não sei quem, era um monte de gente cientista. Stephen Hawking, que nem está aí para reclamar se está usando o nome dele ou não. E deu toda uma confusão. Eu já ia separar isso para falar sobre isso nessa sexta-feira. Esse problema aconteceu na segunda. Na terça-feira, a Superhuman, que é a dona
Grammarly. Lá, gente! Poxa, vocês não gostaram? Estamos surpresos! Vamos fazer o seguinte, a gente vai fazer aqui um opt-out. Então jornalistas, escritores que não quiserem que o seu nome seja usado aqui, você bota esse formulário aqui e a gente vai parar de usar. Aí o mundo inteiro falou não. Na quarta-feira falaram, ah, então estamos pausando aqui o Expert Review para ver um jeito melhor de fazer isso, etc. Tiraram do ar, mas aí já era tarde, começou o processo coletivo,
didato ao processo coletivo. A Grammar, até agora, não pediu desculpas. Falou, gente, foi sem querer. A gente estava aqui tentando fazer uma coisa para ajudar a divulgar o nome de vocês no mundo, etc. Assim, todas... Eu nunca entendo como é que uma coisa dessa... Tudo bem, a gente falou que o slogan do Vale do Cirício é você pede perdão e não pede permissão. Eles nem perdão pediram. Eles só lançaram isso e deu para ver exatamente o guia do que não fazer numa crise pública foi
como eles levaram essa confusão inteira. E estão sendo tirado do ar, óbvio, estão sendo processados, óbvio. Mas, cara, como que um negócio desse vai pro ar? É muita cabeça vazia desenvolvendo coisa nesse mundo. Faltou alguém ali do departamento de vai-da-merda, basicamente, né? Nossa, cara, pelo amor de Deus. Enfim. Indo agora pra XAI, eles estão também contratando e contrataram a galera do Cursor, que são dois líderes sênior, muito sênior lá, o Andrew Millett e o Jason.
Ginsburg, agora estão dentro da OpenAI, uma pegada mais ou menos daquela que o Mark Zuckerberg estava fazendo para a meta, para o Super Intelligence Labs, de roubar da concorrência. Agora eles foram lá na Cursor, só que isso vem em um momento que a Cursor, apesar de funcionar muito bem, tem muita gente no mercado brasileiro, nosso amigo Felipe Lauer sempre fala que eles usam lá na Enter, e é uma empresa que conseguiu sobreviver, eu até mencionei aqui semana passada, desde o começo,
do boom de IaaS gerando código, eles conseguiram se manter no topo e conseguiram ser a empresa que ainda é usada, ainda é um top of mind de muitas pessoas hoje em dia, quando a gente fala de programação agêntica. Só que, com esses lançamentos aí desde dezembro desse ano, novembro, dezembro de 2025, do Cloud Code e tudo mais, muita gente começou a migrar pra fora, principalmente lá dos Estados Unidos. Começaram a migrar pra fora desses sistemas com IDE, que você vai cobrar,
pagar o token ali, mas você paga a subscrição e tudo mais, e resolveram basicamente remover o middleman, o homem do meio, e para que eu vou pagar o cursor que vai me dar acesso ao Cloud Code, se eu posso pagar diretamente a Anthropic que vai me dar acesso ao Cloud Code. Eles têm os modelos deles também, o Composer e tudo mais, que o pessoal até elogila bastante, só que a maioria da galera quer usar o estado da arte, que é o Cloud Opus 4.6, o Cloud Sonnet, ou coisas assim. E aí, por causa disso, o cursor começou, pelo menos lá nos Estados Unidos,
dá uma caída. Então eu imagino que tenha muito a ver com essa razão, além, claro, das luvas que o Elon Musk vai pagar para essa galera para ir lá para a XAI, mas que seja eles olhando assim no médio e longo prazo e talvez não acreditando que a empresa vai crescer tanto assim e agora eles têm ali, por exemplo, um cadeado de ouro para ir trabalhar na XAI, mas ganhando as luvas de um milhão ou de dez milhões de dólares se o Elon Musk estiver seguindo a receita do Mark Zuckerberg e conseguiu tirar
caras tops, tops da Cursor. Minha aposta curta a temporada, que há seis meses a gente vê. Agora, nessa última semana, virou notícia uma iniciativa muito interessante sobre como que a IA vai ser usada pra ajudar quem é profissional de saúde a identificar casos de violência doméstica. Isso é uma iniciativa do Recife, ou no Recife, né? Mas ao invés de eu e o Fabrício explicarmos e falarmos mais a respeito dessa iniciativa, quem que vai falar sobre isso?
podcast, o professor Tiago Torrente, lá da Universidade Federal de Juiz de Fora. Já batemos um papo super legal aqui com ele. Foi um episódio que eu até falei, nossa, talvez eu quero estudar com o professor Tiago Torrente, fazer um doutorado, alguma coisa assim. A gente vai deixar o link aqui na descrição. Mas, Tiago, fale aí sobre esse projeto. O projeto nasceu de uma parceria entre a FrameNet Brasil, que é o Laboratório de Linguística Computacional aqui da Universidade Federal de Juiz de Fora, a Viral Strategies Brasil e a Secretaria de Saúde da Prefeitura do Recife.
A ideia para o projeto partiu da constatação de que os sistemas públicos de saúde, como o SINAM, que faz notificação de violência, ou o ESUS-APS, que tem os prontuários eletrônicos da atenção primária à saúde, eles têm uma grande quantidade de informação que pode ser utilizada para o desenvolvimento de ferramentas de inteligência artificial. Só que parte dessas informações está nesses sistemas armazenadas na forma de textos abertos, de textos livres.
tanto não na forma de dados estruturados. E aí, qual foi a nossa motivação para a pesquisa? Achar uma forma de fazer com que esses dados que estavam nos textos abertos pudessem ser representados de uma maneira mais estruturada para que eles pudessem ser usados para o treinamento de um sistema de inteligência artificial que estima o risco de violência e a notificação de violência. É interessante a gente pensar que essa ideia de você usar
que está no campo aberto, ela não vem sem desafios. Primeiro que a gente está falando de dados que são muito sensíveis, então existe todo um cuidado de anonimização desses dados e de um tratamento deles que precisa ser necessariamente explicável, responsável e transparente. E é aí que entra a semântica de frames. A gente, então, desenvolveu um modelo da cognição linguística humana sobre os domínios da saúde e da violência,
estruturas que representam o nosso conhecimento sobre esses dois campos, com a forma como esse conhecimento aparece no texto do prontuário, e com isso a gente conseguiu identificar padrões que são indicativos do risco de violência no texto que o profissional de saúde registra no prontuário. Foram analisados mais de 900 mil registros ao longo de um período de 10 anos, e esses padrões que a gente consegue definir em termos dessas estruturas,
estruturas de conhecimento que a gente chama de frames, eles nos permitiram não só identificar e estimar o risco de violência, como descobrir a subnotificação que é de cerca de 80%. Então veja, isso é uma forma de a gente conseguir superar um grande desafio de sistemas de ar quando eles precisam identificar num dado casos que são subnotificados. Por quê? Porque se a violência não é notificada adequadamente, como que você vai treinar um modelo
de A convencional se você não tem como dizer se aquele é ou não um caso específico de violência. Quando então a gente cria esses padrões semânticos, esses padrões de manifestação do relato da violência ou do risco da violência nos prontuários, a gente começa a conseguir fazer busca ativa desses padrões nos dados. E aí a gente aumenta também junto a base de treinamento para o sistema de A.
explicar pra gente. E a gente gostou muitíssimo desse projeto. Parabéns pra ele. Um abraço pra ele. E os detalhes vão estar aqui na descrição. Grande abraço. E o pessoal da Perplexed tá vivo, Marcos. E o Open Claw segue na semana seguida. É, e o Open Claw segue vivo também. Eles tinham anunciado semana passada o Perplexed Computer AI, que era basicamente um Open Claw mais seguro ali dentro daquele ambiente fechadinho da Perplexed. Então é uma coisa que você não vai fazer por conta própria. Você vai pagar
o serviço da Perplex, e você vai ter ali dentro do sandbox deles para fazer basicamente as coisas ou muitas das coisas que o OpenClaw fazia. E essa semana eles lançaram mais uma coisa que eles chamaram de Personal Computer, que é basicamente um agente de IA que vai transformar ali um Mac, eles deram aqui o exemplo do Mac Mini, que quando explodiu a onda do OpenClaw, que para quem não lembra se chamava CloudBot, depois Multibot,
um agentão que te deixa fazer tudo, né? Então você pede pra ele e ele vai atrás. Você manda um áudio pra ele, ele não sabe como interpretar aquilo, ele vai buscar na internet, se você já tiver dado, claro, a conexão pra ele com a internet, pra pesquisar como fazer isso e ele instala as coisas sem te perguntar e aí ele interpreta a sua mensagem de áudio que você mandou pra ele e te gera a resposta, enfim. Essa é a ideia geralzona do OpenClaw. Lembrando do vídeo do que eu fiz no canal do YouTube da Alura de como instalar,
como fazer, como rodar ele. E por causa dele, tinha tido e ainda tá tendo um esgotado. Galera malucamente indo nas Targets lá dos Estados Unidos, Best Buy, pra comprar Mac Minis. Porque eles não queriam rodar num VPS, eles não queriam rodar num computador que tá abandonado na casa deles, eles queriam rodar no Mac Mini por alguma razão que até hoje eu não sei qual é, porque não faz o menor sentido. Ele roda muito bem pra ir nesse tipo de coisa. O único motivo que eu consigo pensar
que eles querem rodar modelos locais. Querem rodar algum Kimi, algum Quen rodando ali no próprio Mac Mini. Fora disso, não faz sentido. É o preço dele, pelo hardware que ele tem. Quando a Apple lançou o Mac Mini mais atual, ele foi universalmente elogiado por ser o computador mais parrudo que os Estados Unidos, tá? Que você consegue comprar pelo menor preço que tem. Ele custa, sei lá, 600 dólares, uma coisa assim. Era por aí. Então, era muita máquina,
muita GPU, muita CPU e memória RAM para você comprar rapidinho ali. Imagina você gastar 600 reais numa baita máquina para ser um servidor de IA. Vende feito água mesmo. Então, foi por isso que meio que viralizou. Você tenta comprar uma máquina parecida, equivalente, no mercado de PCs, ou você vai comprar 600, vou falar, 600 reais. Isso é uma porcaria. Ou uma coisa equivalente, você acabar gastando mais de mil, ao invés de gastar 600. Então, por isso que o pessoal viralizou.
virou a referência, é Mac Mini que se compra para rodar o OpenCloey e virou isso. Para o americano que gasta dinheiro com tudo, foi isso. Eu acho que é mais por isso até, Marcos, porque eu estou gastando 3 dólares por mês para rodar o meu VPSzinho aqui. Então é muito, muito, muito, muito, muito, muito mais barato você rodar num VPS ou numa máquina velha que você tinha, porque ele não vai precisar de muitas coisas e muito poder computacional só se você quiser rodar um modelo de programação.
ou modelo local e não conectar ali com a API do Cloud, do Gemini, do GPT. Lembrando, ele come muitos tokens, mas dá para você usar ele dentro do seu plano de assinatura. Se você tiver um plano, por exemplo, da OpenAI ou do Gemini, você faz o login ali com OAuth, em vez de fazer o login com a sua API de tokens, e aí ele vai gastar o que seriam seus créditos ali do Codex, por exemplo, no caso da OpenAI, do GPT. E aí é meio que infinito,
Muito, muito, muito difícil chegar no limite. Mas enfim. Eu simulei aqui uma compra do Mac Mini no site da Apple como se eu morasse em Nova York e leva uma semana para entregar. Geralmente é um dia quando não está nessa loucura toda. Então ainda está com o estoque baixinho. E aí é exatamente isso que a Perplexity fez. É para rodar no Mac Mini. Eles se posicionaram exatamente assim. E é o agente deles, não é o OpenClaw. Vai ser o Perplexity Personal Computer rodando localmente no seu Mac Mini.
no Mac Minions, aplicativos, vai ter controle de sessão e tudo mais. Ou seja, eles estão vendendo como se fosse um OpenClaw com mais salvaguardas ali. Mas o que eles provavelmente fizeram, eu imagino, é que eles pegaram o código do OpenClaw, que é open source, ou do Py, que é um outro repositório open source, que é a base sobre a qual foi feito o OpenClaw. Colocaram mais coisas em cima, um pouquinho mais de segurança, um kill switch ali, para apagar
por exemplo, se ele estiver fazendo alguma coisa muito maluca, igual apagar os e-mails da menina da meta que a gente comentou na semana retrasada, e estão vendendo isso como uma parte do pacote ali do plano Perplexity Max. É espremer o máximo possível dessa laranja aí, Open Clock, e segue aparentemente no hype, como a gente falou. China aplicando em todas as coisas. Se você quiser saber um pouquinho mais sobre isso, faça o meu vídeo lá, grátis, no YouTube da Lula.
perplexity que pintou essa semana, foi que a Amazon conseguiu uma liminar para impedir que o navegador Comet, que aliás está para sair para a iOS faz uma semana, ia sair dia 11, aí adiaram para hoje, aí ia sair hoje, adiaram para o dia 18, vamos ver se dia 18 sai, né? O Comet é o navegador agêntico da perplexity e dava para você estando logado na Amazon, você fazer compras. Você fala, Comet, vai lá e compra papel higiênico. Ele ia lá na Amazon sozinho e comprava. A Amazon conseguiu uma liminar para impedir que o Comet faça compras ali dentro. A gente falou,
sobre isso, que o mercado de e-commerce não está gostando desse negócio de comprar agêntica, que você fala para a gente entrar no site e comprar, o agente entra no site e compra. Você vai a um humano para entrar no site e comprar, ele vê um destaque, ele bota, acaba gastando mais. Todo o e-commerce é baseado em upsell e agente não cai nisso, pelo menos por enquanto. Então a Amazon conseguiu ou não eliminar, a justiça americana falou que não, o Comet não pode navegar para comprar coisas em nome do usuário e ainda falou
para a Perplexity deletar e destruir os dados de compra de usuário que eles tenham por ventura armazenado, porque isso é uma outra coisa. Se a Perplexity coleta dados de hábito de compra das pessoas na Amazon, ela pode amanhã colocar isso para jogo dentro do próprio Comet, dentro do próprio Plexity, e ela ter um plano de e-commerce que suplante e concorra com o da Amazon, treinado nos dados da Amazon. Que é toda briga de LLM e, no fim das contas, sempre volta para esse tipo de assunto.
momento, a justiça deu aí uma razão para a Perplexity, aposto que a Perplexity vai recorrer, ela tende a falar, você não entendeu nada, não é isso que eu estou fazendo, então a gente vai ver se eles fazem isso novamente, mas está aí, Perplexity, nessa semana, deu um puxão de orelha. Sim, e indo agora para a Microsoft, aqui nas rapidinhas, eles lançaram o Copilot Cowork, que está integrando o próprio Cloud Cowork, ou pelo menos a tecnologia por trás do Cloud Cowork, dentro do ecossistema de Microsoft,
Para quem não lembra, o Cowork é um software que você instala na sua máquina, e ele vai correr localmente no sentido que ele vai poder ter acesso aos seus documentos, esse tipo de coisa, só que, claro, com os modelos da Antropic, que vão estar sendo usados ali via a sua conta, ou via API, como você quisesse, que é mais pela sua conta, na verdade. Mas a Microsoft gostou da ideia, achou bacana, e agora integrou dentro do Copilot, agora se chama Copilot Cowork,
que você falou para ele, para fazer, ele cria uma planilha para mim, manda um e-mail aqui no Outlook, então ele vai abrir o seu Outlook, vai mandar o e-mail, porque tudo é com o sistema Microsoft, o Teams, o Excel, o Outlook e outras coisas, ele vai saber fazer isso rodando como se fosse um software que você instalou localmente na sua máquina. E nessa pegada da mesma que o Coworky faz, só que tendo acesso a todo o ecossistema de ferramentas,
Eles falaram que por enquanto está em testes com o grupo limitado, mas que já deve chegar para os usuários agora no final desse mês, no finalzinho de março. Uma outra coisa que virou notícia nessa semana foi a plataforma, eu falo Replit, as pessoas falam Replit, cada um fala de um jeito, mas é uma daquelas plataformas de codificação que a gente viu que fez bastante. Codificação não, ela faz mais até do que código e o pessoal vinha usando bastante. Eles lançaram nessa semana o Agent4,
que é uma versão nova, mais versátil, mais rápida do nosso agente para juntar várias etapas de um processo de desenvolvimento de alguma coisa que vai desde design até você falar de mexer em banco de dados, funcionalidade de back-end, front-end também, junto com design também. Isso tem agentes paralelos trabalhando. Aí já coloca no ar com uma versão mobile, tem web app também, landing page, você faz tudo isso automático.
disso, existe uma parte de coordenar, os próprios agentes coordenam essa execução, desde a ideia, primeiro prompt, estruturação toda, design front-end, back-end, botar no ar. Então, para quem trabalha especialmente com desenvolvimento web e já vinha escutando falar a respeito do Rapid, talvez essa seja uma boa hora para você dar uma espiadinha, mas se vocês usarem, contem para a gente como é que foi a experiência de vocês. Com certeza. E um rapidinho, bem rapidinho mesmo,
O pessoal da Markov AI liberou um dataset bem interessante de Computer Use. Chama Computer Use Large, disponível, aberto lá no Hugging Face para quem quiser treinar modelos. E essa é a pegada de Computer Use, o uso do computador, de ferramentas do seu computador. Então, são 48 mil vídeos de tela para você treinar ali o seu modelo que vai mexer o mouse e vai fazer coisas no seu computador.
Excel, Photoshop, Salesforce, VS Code também um pouquinho. E tá lá, aberto, numa licença Creative Commons by 4.0, pra você usar, quem sabe, e treinar localmente. Então isso é mais pra empresas ou galera que trabalha com pesquisa em IA, mas bem, bem, bem bacana esse dataset aberto público lá no Hug & Face. Boa, e partindo pra NVIDIA, ela, aliás, a gente vai ver muita notícia da NVIDIA nos próximos horas e dias por conta da GTC, né, que vai acontecer, mas nessa semana,
ela lançou, estreou, anunciou o Nemotron 3 Super. Nemotron é a família de modelos da própria NVIDIA. E esse 3 Super, eles falaram que é um modelo híbrido de Mixture of Experts, que tem basicamente baldes de cadeias de conhecimento que você ativa uma ou outra dependendo do pedido que você fizer. Estou simplificando muito aqui, mas é um modelo com Mixture of Experts que tem 120 bilhões de parâmetros.
interessante e foi curioso porque isso veio junto de uma notícia, o pessoal da Wired notou que a NVIDIA planeja gastar 26 bilhões de dólares ao longo dos próximos 5 anos em iniciativas ligadas ao desenvolvimento de modelos com peso aberto. Então isso deve trazer ainda mais atenção para esse tipo de iniciativa de mercado, o que é bom para todo mundo. A gente viu já alguns fatores trazerem atenção para o mercado de código aberto, de modelos abertos, que são coisas separadas. A gente entrevistou recentemente
até o Emmanuel Schlag, que trabalhou no Apertus, que é um modelo completamente aberto, que foi desenvolvido na Europa. E a NVIDIA agora colocando a contribuição dela um pouquinho nisso, não só investindo 26 bilhões em 5 anos, mas lançando já nessa semana o Nemotron 3 Super. E mais uma coisa que se vocês testarem, a gente está louco para saber como é que foi o desempenho de vida real aqui, de uso de teste e de mundo real de vocês. Com certeza, e como o Marcos falou, é um modelo de 120 bilhões de parâmetros, só que só 12 bilhões ficam ativos, mais ou menos 10%
E, Marcos, ele vem com uma janela de contexto de um milhão de tokens para um modelo pequenininho assim. Uma coisa muito, muito, muito bacana mesmo. Tem ali toda a descrição técnica no link que a gente vai deixar aqui na descrição. Mas nos benchmarks tem performado muito bem. E eu vi a galera já de empresas pensando em fazer testes, fazer benchmarking com esse modelo. A NVIDIA sempre lança coisas boas. E, Marcos, uma outra notícia aqui.
e que ganhou um investimento grandinho. Quem? Papai Lecã. Papai Lecã. Nosso futuro amigo, hein? Exatamente. O Ian Lecã, um dos padrinhos, pais da IA, ele já tinha aberto, ele saiu de ser chefe cientista de IA lá na FAIR da Meta alguns meses atrás, depois daquela treta toda que colocaram o Alexander Wang para ser chefe de todo mundo, um cara de 28 anos, e basicamente falar para os pesquisadores o que eles teriam que pesquisar
uma coisa mais focada em produto e em LLMs. O Ian LeCamp já fala há muitos anos que ele não acredita que o futuro das EAs esteja nos LLMs, ou na verdade o futuro da AGI, uma inteligência geral. Ele vê por um outro caminho, mais de modelos de mundo, os famosos world models. E por isso ele saiu e decidiu abrir a própria empresa dele para focar exatamente nisso, em criação e pesquisa de world models.
um investimento absurdo para uma empresa que não tem nada, não tem absolutamente nada. É uma coisa que as empresas de IA já estavam conseguindo um ano, um ano e meio atrás, por exemplo, quando a Amira Murat saiu da OpenAI, de ser CTO, e foi abrir a Think Machines, o Iliasso Descaver também abriu a dele, e que até agora ninguém sabe absolutamente nada do que eles estão fazendo, mas também se diz que é uma coisa mais essa pegada de pesquisa em modelos de mundo, ou o próximo
ponto, que não são modelos autoregressivos, LLMs, enfim. Um bilhão de dólares no CID, de investimento CID, e ali 3.5 bilhões de pre-money. Que é a avaliação de valor de mercado. Que é a avaliação de valor de mercado, e que hoje em dia é uma grana que as empresas não estavam mais conseguindo. Empresas de IA, como eu falei, até um ano, um ano e meia atrás, você falava IA, você era uma pessoa importante, pá, aqui um bilhãozinho. Agora,
já não está mais assim. O mundo está olhando, está tentando segurar um pouco mais essa pegada. Ainda está tendo muito investimento em empresas de ar, mas não está tão rápido assim. E ele é o Ian Lecan, como eu vou chamar carinhosamente de Papai Lecan a partir de agora. Ele conseguiu fazer isso e é uma empresa que não vai estar sediada nos Estados Unidos. Ela está sediada em Paris, na França. Claro que vai ter escritório lá, vai ter escritório em Singapura, vai ter escritório também em outros lugares do mundo, já de cara. Já vai ter
escritórios, que nesse caso eu acredito que escritório seja mais uma coisa para pesquisadores. O cara está remoto lá e tem um centro de pagamento, vai ter uma coisa nesse sentido, pelo menos nesse momento inicial. Mas ele conseguiu trazer uma boa galera, como o Alexandre Lebrun, como CEO, pesquisadores da própria Meta e de outras empresas que já trabalharam com o Lecã e quiseram continuar a trabalhar com ele aqui na AmiLabs, o nome da empresa deles. E alguns desses investidores, essa é a própria Nvidia, o Jeff Bezos,
investe em Anthropic, Temasek, Greycroft, o Eric Schmidt, que também é um desses bilionários que investe em um monte de coisa. E, por enquanto, não esperemos nada de lá, porque é muito começo e é um foco em pesquisa, não é um foco em lançar produtos agora. Mas, se eles chegarem numa EDI primeiro, que é o que o Lecan acredita, que a gente não vai chegar na EDI com LLMs, pode ser uma coisa que possa dar muito valor no futuro, ou não. É esse foco de pesquisa dele, da empresa,
ao papai Lecã por ter conseguido abrir essa empresa e por ter aberto não só lá nos Estados Unidos, ter aberto já uma empresa mundial. E quem veio a público falar sobre isso foi o Emmanuel Macron, o presidente da França, falando que o Lecã está abrindo uma página nova na história da inteligência artificial e que é essa aí, a França dos pesquisadores, das pessoas audaciosas e tudo mais. Ou seja, teve ali um muito, oh, vem pra cá, não fica aí não, vem pra cá. E eu ouvi umas conversas,
que são só rumores, não faz o menor sentido, então a veracidade delas provavelmente é algo em torno de menos de 1%, mas que galera falando que a União Europeia estaria preparando uma proposta para trazer Antropic para a Europa, para a sede não ser mais no Vale do Silício, ser aqui em algum lugar, na própria França ou em algum outro país aqui, por causa dessas tretas todas lá com o governo americano e tudo mais. Não acredito, não acho que vai acontecer, mas o governo europeu finalmente, no ano passado,
acordou para ver que o desenvolvimento estava parado, basicamente, só tinha Amistral e Amistral estava para trás, até que veio mais investimento público, inclusive, a União Europeia colocou muitos bilhões de euros nisso, o governo da França colocou outros centenas de bilhões, que foi 600 bilhões do governo da França e mais 600 bilhões do governo da União Europeia para fomentar a criação de tecnologias aqui na Europa mesmo.
estar aqui, provavelmente vem nessa pegada. Novamente, o Dantropic acho que é só blá blá blá blá blá, acho que não vai acontecer, mas eles estão pelo menos tentando agora fazer alguma coisa nessa pegada. E uma última rapidinha aqui, é que o pessoal lá da Hugging Face, como o Leandro von Werra, o Thomas Wolff e mais a galera que trabalha com eles lá, liberou também um dataset de pesquisa pra galera aberto, totalmente aberto lá no Hugging Face, o Fine Phrase, que são 486
bilhões de tokens gerados sinteticamente depois de 90 experimentos que eles fizeram e também um trilhão de tokens também gerados ali fora desses experimentos a partir de 12 anos de GPU acumulados meio que com a ideia de descobrir qual que é a melhor receita para você gerar dados sintéticos de pré-treinamento para o seu modelo de linguagem para o seu LLM e aí os testes iniciais mostraram que esse dataset do Fine Phrase foi melhor do que outras bases de dados sintéticos
existentes, como o da própria Nemotron, da NVIDIA, o Rewire, o Synth e tudo mais. Então, outra notícia excelente para quem é da área de pesquisa em inteligência artificial. A gente vai deixar o link aqui na descrição. E correndo já para os quatro estudos da semana aqui, Marcos, o primeiro é do próprio Papai Lecã. Olha só! Se a gente falar de novo, pode pedir gol no Fantástico já. Exatamente. Ele é um dos caras que está ali no paper, tem outras pessoas também, mas o nome dele é AI Must Embrace Specialization,
via Superhuman Adaptable Intelligence. Ou seja, a IA tem que abraçar, tem que adotar a especialização através de uma inteligência super-humana adaptável, que é meio que quase um manifesto para o que a empresa dele vai fazer, ou o que pessoas acreditam que é o futuro da suposta AGI. Eles falam que esse próprio conceito de AGI é muito confuso, inadequado, e eles falam que uma ideia de uma inteligência
que seja capaz de fazer tudo o que o humano vai fazer, partiria de uma premissa errada, que nós humanos não somos gerais, nós não temos uma inteligência geral, mas que nós somos especializados em tarefas que são relevantes para a nossa sobrevivência e cultura. Conseguir comida, trabalhar aqui, criar um podcast, trabalhar como programador, como médico, alguma coisa, a gente se especializa em alguma coisa muito específica. E que tem várias definições disso daí na indústria, mas como alternativa,
estão propondo esse novo termo, que é o SAI, a Superhuman Adaptable Intelligence, a inteligência super-humana adaptativa ou adaptável, que seria não definir uma inteligência pela quantidade de tarefas que ela consegue dominar, que seria a ideia de uma inteligência artificial geral, mas sim pela velocidade e pela eficiência com que um sistema consegue aprender novas habilidades e se adaptar a tarefas que são úteis até além das capacidades de um ser humano.
em vez de você tentar imitar um humano em uma lista infinita de competências ao mesmo tempo, o foco seria construir sistemas que podem ser capazes de aprender muito rápido e se especializar em uma coisa que for necessária para ele. E aí ele sugere vários caminhos para isso, como o self-supervised learning, o aprendizado auto-supervisionado, que é utilizado inclusive para treinar os modelos de linguagem de dia, mas falam também dos modelos de mundo que permitem planejamento,
muito mais modular. Ou seja, é um paper mais filosófico do que qualquer outra coisa, mas é a proposta que ele vai seguir de agora em diante. Boa. E teve um que pintou nessa semana, que eu vi que fez bastante barulho, que foi do pessoal de Stanford e de Harvard, sobre a área de alinhamento. O nome do paper é até Agentes do Caos. E a premissa básica dele é a seguinte. Você pode trabalhar em alinhamento quanto for para um modelo, para um agente,
Ele não vai pegar o ferro do sangue dos humanos se você pedir para fazer clipe de papel, porque ele está alinhado. Maravilha. O problema é quando você coloca este agente super alinhado em uma situação competitiva com outros agentes. Porque aí, por conta da competição, o que começa a acontecer é que eles vão deixando de lado esse alinhamento, porque a concorrência faz com que eles concorram de uma forma cada vez mais intensa,
e eles esquecem o alinhamento, e aí eles podem passar a fazer bobagem, porque ainda assim eles estão treinados para buscar a recompensa, e seja lá qual seja o meio que eles forem enfrentar para chegar nessa recompensa. Então o alinhamento funciona muito bem com um modelo, um agente até rodando localmente, mas quanto mais ferrenha for a competição em ambientes que envolvam mais de um agente, aí o alinhamento vai para as cucuia, e eles começam a fazer manipulação, o paper fala de collusion,
Colusão? Não é colusão. Como é que chama? Sabotagem estratégica. É, ficar mal acumulado, ok. Então, é os agentes do caos que é isso. O alinhamento funciona bonitinho na teoria para um agente. Bota eles juntos, concorrendo. Aí é meio cada um por si e em um mundo. E cada vez mais é ter agentes interagindo ou entre si ou concorrendo entre si para chegar no resultado, seja pedido por humanos ou não. Isso é bastante importante. Aí você bota isso para comandar com guerra.
Aí está problemas. E a gente vê porque Cantropic está ainda reticente sobre esse tipo de uso. Bem interessante esse paper. Apesar de ser... O nome é feito para bombar. Agentes do caos. É um ótimo nome. Exato. E assim, são 30, 40 estudiosos. E não é... Eu falei só do pessoal de Stanford e de Harvard, mas é mais. Tem da Hebrew University, Vector Institute, tem da Alter, o Max Planck, Instituto também, Carnegie Mellon, British Columbia, muita gente envolvida.
convida nesse estudo, e quanto mais gente de vários lugares, melhor, que tem mais ideias, né? Bem legal. E o nosso último estudo aqui de hoje veio de vários centros de pesquisa e universidades lá da China, que é uma tentativa de mudar um pouquinho a arquitetura dos Mixers of Experts, as misturas de especialistas, como todos os modelos, a maioria tem sido treinado hoje em dia. O nome é Mixer of Universal Experts, uma mistura de especialistas universais, que a ideia é você
ali na arquitetura mesmo do modelo, quando você vai treinar o modelo, uma camada, uma dimensão adicional para deixar ele escalar, que eles chamaram de virtual width, que seria como largura virtual. Ou seja, em vez de cada camada ter os seus próprios especialistas, o pessoal propôs ali criar esses especialistas compartilhados, que podem ser utilizados em várias camadas, e isso vai permitir que a profundidade do modelo funcione como essa
largura virtual, de coisas que ele vai saber fazer, e com isso ele aumenta a capacidade combinatória dele, sem ter que aumentar o número de parâmetros que vai ser ativados por token. Essa é a grande vantagem dos modelos Mixture Experts, que você tem uma rede neural gigantesca, o modelo de, por exemplo, o do Nemotron, 120 bilhões de parâmetros que vão ser ativados, só que se fosse uma rede neural denso, um modelo de adenso, todos os 120 bilhões seriam ativados para cada token que ele tem que
E aqui não, ele vai ativar só 12 bilhões, 10% nesse caso, e tem outros modelos que ativam até menos, 5%, 4%, depende muito de como for feito. Mas para fazer isso, para reutilizar e conseguir treinar isso, eles colocaram três mecanismos, um é de topologia rotacional, o outro é de controlar o balanço, o equilíbrio de carga que cada especialista vai ter, que o pessoal aqui já estava até me falando aqui no BSC, tentando treinar modelos de mixture,
of experts, que é o principal desafio, porque às vezes vai muito pra um especialista e os outros ficam idiotas, ou o outro fica tonto, assim, não aprende nada. E o terceiro mecanismo seria um roteador universal, que vai ter ali o estado e vai levar em consideração as decisões anteriores. Enfim, pra quem quiser ler o paper, é um paper mais de pesquisa, assim, bem cabeçudo, o link tá na descrição, mas eu já vi o pessoal aqui no BSC comentando muito, olha que ideia boa, que legal, vamos testar aqui, vamos treinar
talvez utilizando essa Mixer of Universal Experts, que veio aberto lá dessas universidades chinesas. Muito bacana. Link disso e de todo o resto do que a gente comentou hoje na descrição do episódio, junto com o link para você não perder a sua vaga. Está te esperando para você ir com a gente para o Vale do Silício, 31 de agosto a 4 de setembro. Vem rápido, porque tem que ver a parte de visto, de passagem, de hotel, e isso demora. Quanto antes, melhor. Se junte aos mais de 60% das vagas que estão completas já, para a gente poder ir lá visitar.
de empresa bacana e aprender muito todos juntos, vai ser muito legal. E eu e o Fabrício voltaremos na quarta-feira com uma entrevista que se eu fosse você, eu me arrependeria de perder. Essa vai ser top, Marcos. Já coloca o lembrete aí. Quarta-feira, entrevista do IA Sobre Controle, porque essa demorou, mas saiu e eu estou muito orgulhoso. Acho que você também está, né Marcos? Somos dois. Até lá. Este podcast foi produzido pela Alura. Mergulhe em tecnologia.
E Faculdade FIAP. Let's Rock the Future. Edição Rede Gigahertz de Podcasts. Música