Episódios de IA Sob Controle - Inteligência Artificial

232: Soberania tecnológica e o futuro da IA no Brasil, com André Beck da Wide Labs

11 de março de 202648min
0:00 / 48:11

Nesta semana, mergulhamos em um papo sobre como está a questão da regulação da IA no Brasil, IA soberana, e qual o papel que empresas como a Wide Labs poderão desempenhar.

Vem ver quem participou desse papo:

⁠⁠Marcus Mendes⁠⁠, host sob controle⁠⁠Fabrício Carraro⁠⁠, co-host sob controle, Program Manager da Alura, ⁠⁠autor de IA⁠⁠ e host do podcast  Carreira Sem FronteirasAndré Beck, COO e CFO da Wide Labs

Links:

Amazonia IAPL 2338/2023IA Sob Controle com Deputado João Albuquerque, membro do Parlamento EuropeuApresentação do André Beck à Comissão Especial do PL 2338/2023 (PDF)IA Sob Controle 214...
Assuntos17
  • Soberania nacionalIndependência tecnológica do Brasil · Infraestrutura própria de servidores · Desenvolvimento de modelos brasileiros · Controle de dados em território nacional · Não dependência de países estrangeiros
  • Três pilares da soberania em IAInfraestrutura física (chips e GPUs) · Modelos de linguagem proprietários · Aplicações desenvolvidas localmente
  • Wide Labs: modelos e operaçõesPortfolio de 20+ modelos próprios · Modelo principal com ~300 bilhões de parâmetros · Mixture of experts architecture · Modelos de áudio e transcrição treinados em português · Customização de modelos para clientes · Parcerias com NVIDIA, Oracle e AWS
  • Inteligência ArtificialPL 2338/2023 · Processo de audiência pública na Câmara dos Deputados · Consultação pública com votação dividida · Equilíbrio entre restrição e permissividade regulatória · Comparação com modelos europeu e americano
  • Desafios de desenvolvimento de IA no BrasilCompetição com Big Tech americanas · Limitações financeiras e de recursos · Burocracia e lentidão governamental · Fuga de talentos para o exterior · Diferença de escala entre empresas
  • Esquerdomachismo EmpreendedorismoDiferença entre modelo e aplicação · LLM (Large Language Model) · Treinamento e fine-tuning de modelos · Modelos foundation próprios · Inferência e processamento de dados
  • Estatisticas e DadosNeMo em personas de Brasil · Dados baseados em IBGE · Criação de 6 milhões de personas sintéticas · Dataset open source para comunidade · Brazilidade em aplicações de IA
  • Parcerias EstrategicasColaboração Wide Labs com NVIDIA · Suporte técnico de empresas parceiras · Desenvolvimento conjunto de soluções · Engenheiros internacionais no projeto · Transferência de conhecimento
  • Comparação regulatória Europa vs EUARegulação europeia mais restritiva · Regulação americana mais permissiva · AI Act europeu e flexibilizações posteriores · Falta de regulação nos EUA · Debate sobre equilíbrio regulatório
  • Eleições e PolíticaPADIS (programa de incentivo) · Investimentos anunciados (Microsoft) · Marcos regulatórios e aprovação de projetos · Aceleração de processos · Parceria público-privada
  • Gestão de TalentosCompetência de profissionais brasileiros · Pesquisadores em universidades brasileiras · Time de pesquisa dedicado · Desenvolvimento de novas tecnologias · Aprimoramento de modelos fundacionais
  • Ecossistema de NegóciosEmpresas brasileiras de IA · Convergência de setor público e privado · Eventos de apresentação de empresas · Networking e parcerias entre startups · Crescimento do mercado brasileiro
  • Educacao FormalParcerias com universidades · Centros de excelência acadêmica · Recrutamento de talento jovem · Pesquisa colaborativa · Programas de desenvolvimento
  • Estrutura organizacional da Wide Labs42 pessoas no time técnico · 8-9 pesquisadores dedicados · 6 diretores com contato com clientes · Equipes de desenvolvimento e pesquisa · Coordenação de projetos paralelos
  • Amazonia e tecnologiaGestor de conhecimento da Wide Labs · Consulta de contratos e documentos · Automação de processos administrativos · Eficiência operacional · Integração com sistemas internos
  • IA em PerformanceRetorno sobre investimento · Redução de custos operacionais · Aumento de eficiência · Aceleração de processos governamentais · Economia de tempo administrativo
  • Mercado de influenciadores e conteúdo no BrasilBrasil como líder global em influencers · Oportunidades de mercado · Economia criativa
Transcrição96 segmentoswhisper-cpp/large-v3-turbo

Olá, bem-vindas e bem-vindos à edição de quarta-feira, edição de entrevista do IA Sob Controle, o seu podcast com overfitting de informações sobre o mundo da inteligência artificial. Eu sou o Marcos Mendes e tenho, claro, assim como toda semana, por aqui o Fabrício Carraro, viajante poliglota, host do podcast Carreiras Sem Fronteiras e Program Manager da Alura. Fabrício, tudo bem? E aí, Marcos? E aí, galera de casa? Mais uma quarta-feira, mais uma entrevista, batendo papo com uma galera do Brasil hoje, né?

e vai ter ainda uma série de episódios gringos, mas hoje a gente está falando com o pessoal aqui do Brasil mesmo, né Marcos? Exatamente, vou dar as boas-vindas ao André Beck, que é diretor de operações e financeiro também da Wild Labs, e a gente vai falar, não exatamente disso, a gente pode falar também, mas sobre o PL 2338 de 2023, que a gente até comentou aqui no podcast, mas antes, bem-vindo ao IA Sob Controle, André. Muito obrigado, Marcos, muito obrigado, Fabrício, é um prazer estar aqui com vocês, obrigado, pessoal. Vamos tentar contribuir para um papo rico sobre IA.

Vamos lá. E você participou do processo todo da audiência pública da Câmara dos Deputados sobre o projeto de lei do Marco Regulatório da IA no Brasil. E esse foi um processo que a gente aqui no podcast foi semana após semana falando como foi bastante atribulado por ter muitas, foram, sei lá, quase 250 emendas, algumas retiradas, algumas que foram aceitas, algumas que foram rejeitadas, parcialmente aceitas, etc. E depois de muitas idas vindas, ele seguiu.

o caminho. Na consulta pública mesmo, estava anotando agora no site, foram 35 mil votos a favor e 31 mil contra, estou arredondando aqui, mas dá para ver que foi uma coisa bastante dividida, mas antes de a gente entrar nos promenores mesmo de como é que, o que acabou acontecendo com ele, quer dar uma geral sobre qual era a proposta dele, como é que você via isso? Olha só, Marcos e Fabrício, essa questão da regulação da IA é um tema que está sendo debatido no mundo inteiro. Então a gente tem regiões que estão tentando ser mais restritas,

em regiões que estão sendo mais permissivas com a regulação da IA, entendendo todos os prós e os contras que uma nova tecnologia impacta na sociedade, como todas. Acho que esse é o tema central, de que maneira essa tecnologia vai impactar na sociedade. E aí você tem duas vertentes, impacta na sociedade do cidadão comum, mas também tem que tomar um cuidado para não travar o desenvolvimento do país, que também acaba impactando na sociedade. Então é muito difícil você conseguir regular até onde é importante regular e é importante,

regular. A gente não tem nenhuma dúvida disso. Mas até onde você tem que ser restritivo ou não para não travar o desenvolvimento no país e não acabar fazendo com que o Brasil, mais uma vez, perca essa corrida por estar disputando a ponta tecnológica contra os países do mundo. Porque a gente tem condição para isso. O Brasil é um país que tem profissionais extremamente criativos e competentes. Eu tenho tido a oportunidade de viajar para algumas feiras mundiais

de tecnologia. Estamos indo agora, daqui a uma semana, para o GTC lá da NVIDIA, na Califórnia, e a gente encontra brasileiros nos mais altos escalões das grandes empresas de IA do mundo. Então, a gente tem gente, a gente tem profissional bom. Essa flexibilidade do brasileiro, essa cultura, eu acho que colabora para esse tipo de criatividade e competência do nosso povo nessa nova tecnologia que está tomando conta e vai tomar conta. Então, é um desafio muito grande.

A gente tem, inclusive, na Europa, uma regulação bem mais restritiva e que está começando a tender a uma flexibilização. E nos Estados Unidos, uma regulação bem mais permissiva. É muito difícil encontrar esse equilíbrio. Esse é um ponto interessante. A gente há bastante tempo entrevistou aqui um membro da Comissão Europeia, que era o deputado João Albuquerque, lá de Portugal, e ele falou justamente... E o papo era quando ainda estava sendo discutida para ser implementada todo aquele pacote de regras

implementou e que depois eles foram percebendo mais recentemente que precisava ser menos destrutivo. E tem uma questão que eu sempre tento trazer aqui, que a gente vê, especialmente nos Estados Unidos, onde a regulação é basicamente inexistente. Especialmente comparado com o resto do mundo lá, coisa um pouco mais livre mesmo. E lá a gente vê, sempre que tem um papo de regulação, pende pra logo alguém puxa a carta à China. Não, mas se a gente fizer regular aqui, a China não vai regular e pronto, o mundo vai acabar porque os chineses vão dominar o mercado e os Estados Unidos vão ficar pra trás.

não sei se eu vi exatamente esse tipo de argumento aqui, o que eu acho que é positivo, que deixa um pouco mais de espaço para o debate e para tentar de fato evoluir. Eu sempre falo como essas questões nunca são o zero ou um, não é o caos absoluto, não é só a solução, vai ter um pouco das duas coisas, mas em meio ao status que você viu quando isso estava sendo discutido, o assunto estava maduro o suficiente, as pessoas que seriam as responsáveis por tomar essas decisões e por aprovar o projeto de lei, dar seguimento, etc.

estavam discutindo e regulando, ou era uma coisa que eles foram meio aprendendo também enquanto foram discutindo e tentando regular? Marcos, esse é um ponto maravilhoso que você trouxe para cá, porque se imagina que para a gente, que trabalha com isso, que está no dia a dia de empresas e de instituições, falando dia a todo dia, ainda é um assunto que gera uma série de dúvidas e novos debates de todo o tempo, você imagina para os parlamentares, para os congressistas, eles não entendem tecnicamente, então,

Quando a gente foi fazer uma apresentação lá para eles, a convite da Luísa Canziani, que é a presidente da comissão, e do deputado Aguinaldo, que é o relator, a gente levou para eles algo que chamou muita atenção na hora. A gente levou soberania e independência tecnológica. Acho que esses são dois pontos fundamentais para o Brasil se posicionar. O que a gente quer ser quando crescer na IA? E a gente está crescendo muito rapidamente.

tech da IA ou a gente quer estar sempre dependendo de alguém. E aí a gente cai numa coisa muito simples. Explicar para os congressistas o que é um modelo e o que é uma aplicação de IA. E muitos deles que estavam lá nesse dia não sabiam qual era a diferença. O que é um modelo de linguagem? O que é um LLM? Que para nós aqui é tão simples. A gente fala disso o tempo todo. O LLM é o Large Language Model, é um modelo grande de linguagem. Então,

Boa parte da minha apresentação, eu tentei explicar para eles essa diferença. E não foi uma surpresa para mim, mas muitos me pediram para explicar novamente. Explica de novo, porque a gente não entendeu direito. Então, assim, tem um modelo de linguagem que é como se fosse o motor da IA e tem as aplicações que são desenvolvidas por milhares de empresas que precisam de um motor para funcionar. E aí, quando uma aplicação dessa faz o que a gente chama de inferência para um modelo,

normalmente, em tese, esses dados saem da aplicação, vão até o modelo, são processados e voltam para a aplicação em forma de resposta. Então, tem aí uma questão de tráfego de dados que, quando você extrapola as fronteiras do Brasil, você trafega com esses dados para data centers que não estão em solo nacional, que são de empresas americanas, e você faz a inferência em modelos de linguagem que suportam essas aplicações estrangeiros, você traz uma série de questões

que eu não estou dizendo que são ruins ou boas, mas são sinalizadas. A primeira delas é a soberania. Os nossos dados não estão ficando em território nacional e não estão tendo a segurança que para determinadas missões críticas deveriam ter. A segunda é que toda vez que eu faço inferência no modelo americano e eu trago uma resposta, embora eles falem em português maravilhosamente bem, eles entendam da nossa cultura, eles entendam a nossa rede, eles não foram construídos por brasileiros. Eles não foram construídos

com volume de dataset gigantesco na base de construção deles. Então, eles trazem uma resposta com viés estrangeiro. Até muito pouco tempo atrás, houve uma correção nesse sentido, e é curioso o porquê que houve essa correção. Quando você fazia uma inferência, pegando o exemplo que o chat GPT é uma aplicação e o GPT 5.2, para quem paga os 19 dólares por mês, que está ali por trás, é o modelo, a aplicação, quando faz uma pergunta para o modelo, você perguntava,

o avião, ele trazia os irmãos White. Hoje, ele já olha, são os irmãos White, mas tem o Santos Dumont e tal. Ele vai aprendendo, porque obviamente as IAs vão aprendendo. Então, essa é uma questão. A outra questão é o nosso país ter o controle da IA. Quem desliga e liga o motor de tudo isso que está sendo conectado nos LLMs? Quem tem esse poder? O Brasil tem esse poder? Ele tem uma estrutura de máquinas

Ele tem os modelos proprietários dele e as aplicações, seja lá quais forem, vão se alimentar disso. Independente do que acontecer na geopolítica global, o Brasil vai ter a decisão de ligar ou desligar, de não depender de algum outro país para ter suas milhões de aplicações funcionando, inclusive aplicações hoje que exercem funções críticas em empresas governamentais que são extremamente relevantes para a nossa economia e para o funcionamento do nosso país.

Uma outra pergunta, que quando eu falei isso lá na comissão, foi até curioso, porque tinha um deputado da extrema esquerda e um da extrema direita, que na hora concordaram e falaram, olha, para aí, pega isso aí que o André está... Porque eu levei algumas propostas de texto, pega isso, faz um copy-paste, e eu falei, fico muito honrado de estar agradando os dois extremos, porque é muito difícil hoje em dia conseguir. Mas todo mundo estava preocupado com a questão da soberania, e mais, da independência tecnológica, que foi isso que eu acabei de falar. Então, acho que é uma questão fundamental

nosso país está analisando. E para eu tentar tangibilizar um pouquinho mais o que significa, que é um tema bastante abrangente, essa parte de soberania, quando o assunto é qualquer coisa digital, porque para algumas pessoas pode significar que a gente tem que ter empresas brasileiras com modelo brasileiro, rodando servidores feitos no Brasil, com as placas brasileiras, eu não sei até onde isso na escala de médio prazo é possível. Exato, então o que significa a preocupação, qual que é a solução, a sua proposta talvez, quando a gente fala sobre, se der tudo

O que significa a gente ter essa soberania? Olha, eu acho que a IA, eu vou chamar aqui de três pilares, muito simploriamente falando, acho que o Fabrício vai poder enriquecer bastante essa conversa, mas ela tem máquinas, data center e máquinas, estrutura física, obra, tijolo e máquina, metal ali dentro, os famosos chips da NVIDIA, que são até os que a gente conhece hoje os mais potentes, por isso a NVIDIA cresceu tanto e hoje é a empresa mais valiosa do mundo, as GPUs,

Essa é uma parte física. O segundo grande pilar são os modelos que suportam todas essas aplicações, que são modelos de linguagem, modelos de áudio, modelos de visão computacional, modelos que entendem imagem e tudo. São os modelos que trabalham por ali. E a terceira parte são as aplicações finais. E aí você tem milhões de aplicações para milhões de funções diferentes. Tem aplicação, como a gente falou agora, de pergunta e resposta, como o chat GPT.

para criar imagem, tem aplicação para regular processos de workflow, enfim, tem milhões de aplicações que vão se alimentar dos modelos que vão ser processados em máquinas, fisicamente falando. O Brasil não constrói GPU. O Brasil não constrói GPU. Esse ponto. E não vai construir. Hoje tem uma briga aí. Algumas empresas americanas constroem GPU. A destaque é da NVIDIA, que constrói GPU até hoje, pelo que a gente conhece, as mais eficientes. Tem a AMD, tem a Intel, que também constroem.

GPUs hoje. E a China, hoje, tem algumas empresas, a principal delas na China é a Huawei, que constrói GPUs também. Que estão chegando, inclusive, no nosso país, já tem parques de processamento com chips e a Huawei verticalizou. Ela faz o completo. Então, eu acho que o Brasil, nesse ponto, ele tem que comprar e ter o seu equipamento, que é estrangeiro, mas é comprado, é próprio. Ele não está rodando missões críticas em nuvem.

Acho que esse seria um ponto importante da soberania. Em data center construído aqui no Brasil, é tudo controlado pelo governo brasileiro, com máquinas proprietárias. Ponto. Modelos. Se o governo, isso é uma opinião particular minha, o governo discutiu muito essa questão, vamos fazer um modelo, um LLM brasileiro, o governo vai fazer um modelo LLM brasileiro. Até que essa decisão seja tomada, até que esse conjunto de data sets seja reunido, até que esse modelo seja treinado, os outros modelos que já estão no mercado se aprimorando,

cada dia que passa, já vão estar tão mais eficientes do que esse que não vale a pena. Então eu tive oportunidade de, como eu falei, de estar em algumas feiras e os principais modelos utilizados hoje em outros países que não os americanos, que tem uma quantidade enorme de modelos extremamente eficientes, que são muito conhecidos, como o GPT é um deles da OpenAI que a gente citou aqui, mas o Google tem, a Antropic tem modelos maravilhosos, extremamente eficientes, mas em todos os outros países são em parcerias de empresas que tomaram a iniciativa de treinar seus modelos,

parceria com alguma empresa pública. Então, disponibilizar modelos que tenham sido treinados em território brasileiro, com dataset importante brasileiro, e a gente tem alguns. Nós da Wide Labs temos o nosso conjunto de modelos, não é um modelo só, a gente hoje tem mais de 20 modelos prontos, mas existem outros modelos aqui no Brasil também que foram construídos, alguns a partir do zero, outros a partir de fine-tune de modelos open-source, etc., tem algumas possibilidades de fazer. E a terceira é, na minha opinião, então, isso seria, sim,

trabalhar com modelos que tenham sido treinados, que tenham respeitado, estejam hospedados em território nacional. E a terceira é incentivar de N formas diferentes as milhares de empresas que produzem soluções sofisticadas de inteligência artificial. Acho que se a gente conseguir juntar esses três pilares num conjunto e o governo apoiar essa iniciativa como um todo, a gente está falando de soberania e independência tecnológica.

incentivo vindo do governo, flexibilização poderia ajudar. Mas se uma empresa americana quiser treinar alguma coisa, ela vai comprar a placa que custa 1. A gente, se zera o imposto, já custa 5, certo? Fica muito difícil, né? Então, quais são os tipos de incentivos que você vê que seriam mais eficientes pra gente tentar começar a fazer isso? Porque uma das segundas questões, e a gente pode falar sobre isso a seguir, é o próprio êxodo de talentos, né? E o Fabrício tem um podcast que trata sobre pessoas aqui, brasileiras,

que estão trabalhando no exterior, cada uma tem uma história, cada um tem um motivo, o papo sempre, de uma forma ou de outra, toca em grana. A gente já entrevistou aqui diretores de empresas grandes e big techs lá fora, e a gente pergunta para eles, e aí, como é que uma pessoa aqui do Brasil deveria pensar sobre a carreira dela? É sempre um trampolim para fora? É oportunidade no Brasil? O que essas pessoas fazem? E as respostas são diversas, mas no seu ponto de vista, o que seria o caminho para a gente tentar viabilizar isso que são os pontos que você propõe,

excelente se fosse aprovado. Olha, Marcos, não tem jeito, né? Então a gente vê, no próprio Estados Unidos, que é uma economia extremamente, né, conceitualmente liberal, né? A gente tem as grandes big techs lá com volume de dinheiro infinito, né? Se você pega o relatório de o balanço da OpenAI nos últimos anos, né? Ela queima a caixa de forma, né? Não tem... Quem me dera, né? Trabalhar numa empresa assim, que não tem compromisso nenhum com pagar a conta, etc e tal. E a cada vez que ela queima...

ela vai ano a ano queimando mais caixa e vai ano a ano recebendo mais aporte para queimar mais caixa ainda. Então, é uma competição difícil para a gente, muito difícil. Isso aí a gente não tem como fugir disso. Mas, se a gente começa a consolidar esses três pilares que a gente falou, uma política séria, tem aí iniciativas do governo muito positivas, como, por exemplo, o PEBIA. Só que o PEBIA, a gente precisa acelerar ele. A gente também cai numa questão burocrática que tudo nosso é muito demorado e muito lento. E a IA, ela não espera.

Vou dizer aqui dentro da Wide que um ano nosso, a gente vive o ano do cachorro aqui. Em um mês... A gente faz a mesma piada aqui no podcast, exato. É, sete meses num piscar de olhos. Então, tudo acontece muito rápido. Então, precisa ter iniciativa privada em conjunto com o governo para essa coisa andar num pace mais rápido. Existem muitas empresas brasileiras competentes que estão se destacando a nível mundial. Então, esse eu acho que é um outro ponto.

brasileiras relevantes e com pessoas que estão, inclusive existem casos de pessoas que estavam trabalhando fora e voltaram a trabalhar no Brasil porque estão se orgulhando de trabalhar em empresas brasileiras e estão despontando no mundo inteiro. Então o nosso caso aqui é um pouco disso. A gente tem contratado muita gente. Hoje a gente tem funcionário que mora no Canadá, tem funcionário que mora em Portugal, tem funcionário que mora fora do Brasil, mas estão trabalhando na UID. Porque estão enxergando também, quer dizer, a gente tem um sacrifício aí de

financeiro, não tem jeito, a gente precisa amadurecer, mas existem hoje empresas brasileiras que vão, nos próximos anos, crescer muito e se equiparar um pouco às principais empresas de soluções de ar do mundo. E é um ecossistema que tem que crescer. A internet, quando surgiu a internet, era muito isso. A gente perdeu um pouco a corrida da internet no começo, mas ao longo de um tempo, a gente hoje tem portais que apresentam números incríveis em termos de audiência,

Você pega um pouco desse mercado de influenciadores, o Brasil tem a ponta do mercado de influenciadores no mundo. Não é fácil, é uma briga dura. Por exemplo, eu vou contratar alguém, ele tem uma proposta para receber em dólar, fazer home office. Recebendo em dólar é duro para mim, mas eu tenho que batalhar por isso. Uma outra coisa que a gente tem nas nossas faculdades, nas nossas universidades, a gente tem uma parceria muito forte com a URGS, com a Universidade Federal do Rio Grande do Sul,

um time de oito pesquisadores, que são todos doutorandos e doutorados em PHDs da URGS, só desenvolvendo coisas novas que a gente ainda não conseguiu resolver com os famosos devs e etc. Então assim, angariar esses talentos jovens, já engajar eles em projetos relevantes, é também uma forma da gente não perder esses talentos no futuro. Mas é uma questão de mercado, isso acontece em todos os mercados. Então essa é uma dificuldade que a gente realmente tem.

a questão da soberania, inclusive trabalhando aqui no Barcelona Super Competition Center, é uma coisa que é muito querida para o pessoal daqui da Europa também, que eles não querem ficar dependentes dos modelos americanos, chineses, inclusive nós treinamos lá os modelos do zero também, com essa ideia mesmo de ter modelos soberanos, de ter data centers soberanos, de ter toda essa ideia, então eu concordo 100% com você nesse ponto. Agora, entrando um pouquinho mais na Wide, na Wide Labs, você falou,

que nós temos 20 modelos, mais de 20 modelos aqui treinados. E eu queria, se possível, entrar um pouquinho mais a fundo nesses modelos, no que eles são. Porque quando a gente vai na página, você fala que são modelos de A proprietários. Só que concordando até com o que você trouxe, fazer esse trabalho no Brasil é meio que inviável. Fazer o treinamento de um modelo, um LLM do zero,

um Gemini, com um Cloud, com um GPT, até em questões financeiras mesmo, porque são muitos, muitos, muitos, centenas de milhões de dólares para treinar um modelo como esse do zero. Então eu queria saber como que vocês estão fazendo atualmente para esses modelos. São fine tunings em cima de modelos open source? Como é que é essa questão mais técnica mesmo? Então, nesse conjunto de modelos, nosso modelo base principal, a gente fez um pré-treino

e um pós-treino, que não foi do Lhama, foi de um outro modelo. Então, foi um fine-tuning, mas com pré-treino e com pós-treino, com uma série de... É o continuous pré-training, o pré-training continuado. Exatamente. E a gente teve um apoio, em termos de infraestrutura, de dois grandes parceiros nossos, da NVIDIA e da Oracle. Então, a gente pegou... São aquelas coisas, você está no lugar certo na hora certa. A Oracle estava instalando as suas nuvens aqui no Brasil, tinha uma ociosidade de GPUs

naquele momento da instalação. A NVIDIA apostou nesse projeto e nos ajudou com uma equipe. Hoje a gente tem um time de engenheiros global da NVIDIA que trabalha em conjunto com nós, resolvendo determinadas soluções. Eu vou explicar para vocês aqui duas coisas importantes que vai clarificar isso. Então a gente teve um apoio de duas grandes empresas do setor que nos possibilitariam. Sozinhos não teríamos conseguido fazer esse treinamento. Esse treinamento, como você bem falou, ele exigiu uma quantidade de GPUs e horas de GPU rodando absurdo.

Cada vez que você dá o merge ali, é uma loucura do que se gasta. E o que aconteceu foi que, em 2023, a gente tomou uma decisão de parar tudo e focar na construção dos modelos proprietários. Então, a gente vinha construindo dataset e a gente tinha muitos bilhões de parâmetros em dataset português, de língua portuguesa, de cultura, de um monte de coisa.

fez muito dado sintético para construir esses modelos, e alguns dos nossos modelos foram treinados do zero. Então, pegar todos os nossos modelos de áudio, de transcrição de áudio, eles foram treinados do zero. São modelos pequenos, modelos de 1B, 2B, 3B de parâmetros, são modelos pequenos. Então, esses foram treinados do zero. O nosso principal modelo hoje é um mixture of experts, feito com pré-treino e pós-treino, e ele segue sendo aperfeiçoado todo dia. Tem uma equipe de pesquisadores hoje que está o tempo todo,

aperfeiçoando ele, que serve de base para todos os outros que ajudam. O que é interessante é que quando a gente tem um cliente que precisa resolver um determinado problema, a gente é uma empresa que não tem produto pronto. Claro que depois desse tempo, a gente acaba tendo várias soluções que estão prontas, que foram construídas, mas a gente, em tese, pega um determinado problema de um cliente e desenvolve para aquele cliente tudo o que ele precisa.

dentro desses nossos modelos, fine-tunar eles com dados daqueles clientes para que aquela aplicação que está sendo desenvolvida performe melhor para ele, a gente também faz isso. Então, esse é um pouco do que aconteceu com a gente. A gente teve esse apoio enorme de Oracle e NVIDIA. Hoje, a gente tem parceria, a gente tem um ex-sistema de parceiros, que a gente chama, que a NVIDIA é a nossa principal madria, a Oracle. A gente tem uma parceria com a AWS também, tem parceria com a Positivo e com a Cente, que é a empresa de data center, onde a gente tem algumas máquinas lá que são

que são nossas, que são proprietárias. E esses modelos, esse MOI, etc., você pode abrir pelo menos, se não puder abrir o tamanho, mas uma dimensão similar de quantos bilhões de parâmetros eles têm? Sim, o nosso principal tem perto de 300. E da empresa em geral, além desses modelos próprios, vocês, para resolver, para fazer solução, vocês também acabam atuando como se fossem um wrapper? Ou seja, é possível usar um GPT, um Cloud, um Gemini, ou algo nesse sentido,

cliente quando é preciso ou vocês focam nos seus? Sem dúvida. Se o cliente assim desejar e não tiver uma questão, porque muitas das nossas coisas hoje, como a maioria dos clientes que a gente tem e as soluções que a gente acaba desenvolvendo são para missões críticas, mas tem outros clientes que não tem essa questão, que não precisa de nada, porque muitas das coisas que a gente faz é on-prem, na estrutura do próprio cliente, ou mesmo que seja em nuvem, é num tenants dedicado para aquele cliente.

o cliente não tem esse problema, e a gente já teve casos assim, a gente pode ter um cliente nosso que quer que a gente use o GPT como base, sem problema nenhum. A decisão é do cliente. A gente tem o nosso conjunto de modelos para oferecer para eles. E, obviamente, eu consigo ajustar meus modelos para ele performar melhor para aquela aplicação, para aquela tarefa que ele tem que cumprir. Mas se o cliente prefere, não, eu quero usar ou um orquestrador de modelos ou um modelo específico de fora, a gente também não tem problema em fazer isso. A decisão é do cliente.

essa estrutura que você contou de como vocês fizeram para operacionalizar e disponibilizar esses modelos todos, eu fico pensando sobre o quanto disso foi discutido ou previsto quando estava sendo toda a parte da consulta pública do projeto de lei, do marco regulador da IA no Brasil. Existem questões a respeito desse fomento que a gente vê o Microsoft, por exemplo, que há um tempo anunciou, eu não vou lembrar o valor, mas foi um valor assustadoramente positivo de investimento que eles vão fazer aqui no Brasil ao longo de um período muito comprido. Imagino até que isso tenha sido, em parte, um processo de decisão

desses ventos regulatórios ou de começar a direcionar isso aqui no Brasil. É o tipo de assunto que já estaria previsto ou que foi discutido para fazer o marco regulatório? Foi sim, Marcos. O nosso CTO aqui, que é o Rodrigo Malossi, desde 2022 ele vem falando, olha, em algum momento vai começar a se discutir segurança de dados e soberania na IA. Isso vai virar pauta.

E aí no final de 23, a gente levou esse projeto de treinar os modelos aqui no Brasil para a NVIDIA. Era fundamental para a gente, para que isso ficasse um discurso coerente, que essas GPUs que foram usadas estivessem em território nacional. E aí a NVIDIA apostou nessa história. Falou, a gente acredita também, inclusive hoje a gente faz parte de um programa da NVIDIA, que é o NVIDIA Inception e o Sovereign AI.

isso, de empresas que promovem soberania em A, regionalmente falando, então a gente faz parte desse programa da NVIDIA, então foi uma coisa pensada, não foi fácil, porque naquele momento tudo que a gente tinha de recursos, de investidores que entraram naquele momento com a gente, foi 100% canalizado para isso, então a gente passou um sufoco danado, até que no dia 30 de julho de 2024 a gente lançou o Amazonia IA, o nosso primeiro modelo, e aí dali para lá,

Essa pauta foi se tornando relevante ao longo do ano passado, com a conjuntura política global. Isso ficou em mais evidência e aí acabou favorecendo a gente, porque a gente já estava preparado para esse momento da discussão. Então isso foi bastante positivo. Mas foi uma decisão, não foi uma decisão fácil. Eu confesso para você que, não sendo o cara de tecnologia, em alguns momentos eu falei, cara, será que a gente devia ter feito isso? Não era muito mais fácil plugar no modelo, pegar uma API de um modelo pronto e não ter gastado essa energia.

esse... Eu falei, cara, em muitos momentos eu achei que a gente ia naufragar, mas acabou que a discussão e a decisão se mostrou acertada. E a gente falou no comecinho do episódio sobre como a Europa tende a ser uma mão um pouco mais pesada nessa questão regulatória em oposição aos Estados Unidos, que é muito mais flexível. Eu vou usar esse eufemismo em relação a isso. Olhando para o que está acontecendo lá fora, tem algum país, alguma região que você diga, tá, acho que eles estão fazendo do jeito que seria

mais próximo do que eu acho que seria o certo, o eficiente, o eficaz, não sei, possível. Porque a gente olha muito, a própria LGPD, ela é quase um copiar, colar, traduzir da GDPR. O próprio nome, é literal a tradução do nome da GDPR para a LGPD. Então o Brasil tende a olhar para a Europa e falar, gostei, quero, mas que outros lugares estão fazendo um bom papel? Então, é difícil isso, porque você tem três grandes centros hoje, Estados Unidos, a China, que a gente pouco conhece dos marcos regulatórios lá,

do que está acontecendo de fato lá dentro, e a Europa. São abordagens, três abordagens... Completamente distintas. Seria que dá para ter isso diametralmente diferentes. Pois é, exatamente. Então, a gente fica ali. Como você bem falou, a gente tende a copiar um pouco mais o modelo europeu. Ao mesmo tempo, o grande volume de dinheiro e as grandes empresas, os grandes players do mercado estão nos Estados Unidos com uma regulação extremamente flexível. Então, como a gente se engessa aqui e deixa eles dominarem,

o globo inteiro e ficar disputando com a China e a gente vai ficar observando essa briga, tentando pegar um pedacinho dessa história, ou a gente vai para cima com todo o sangue no olho que o brasileiro tem, somos bons sim, vamos fazer acontecer e vamos pegar um pedaço dessa história para a gente. Essa é uma questão. Para uma empresa como a nossa que tem o CNPJ no Brasil, a gente já nasce regulado pela GPD. Já é um marco regulatório. A questão dos dados, como eu posso

utilizar, direito autoral, isso no Brasil é uma discussão quente. Já tem regulações, já tem discussões, já tem jurisprudências em relação a isso. Então, eu não tenho uma liberdade absoluta. Então, tem um monte de discussão. Qual que é o modelo ideal? Eu diria que seria um meio termo entre Estados Unidos e Europa. Nem tão flexível para proteger um pouquinho a questão do direito do cidadão e dos autores, dos artistas, etc. e tal, mas também não ser tão

a ponto de a gente não travar a nossa evolução. Porque a gente é um país de terceiro mundo e a gente precisa evoluir. A gente precisa almejar os degraus mais altos dessa escada. A gente tem que chegar lá em cima. E se o governo travar a gente posto regulatório, a gente vai ficar ali tentando, tentando, tentando e não vai conseguir. Então esse é um ponto assim, como tudo na vida, na minha humilde pessoal opinião, o equilíbrio pra mim é a chave de tudo. Nem tanto o mar, nem tanto a terra. Vamos achar um caminho que seja coerente.

e que agrade, não desagrade a todo mundo, nem que agrade, mas que não desagrade a todo mundo. Ou se desagradar a todo mundo, que seja pelo menos igual, que você sabe que você chegou no que ele chamou de compromising. Exatamente. E a gente entrevistou recentemente o Emmanuel Schlag, que ajudou, trabalhou no projeto do modelo suíço Apertos, que tem muito daquilo que você trouxe no começo a respeito de o próprio corpo de treinamento, em que idiomas você vai treinar, por ser bastante intencional sobre essas etapas todas,

E é o modelo, o próprio nome diz, é aberto, tem o Apertos, porque ele não foi focar só, vamos pegar um monte de coisa em inglês, mas tem a distribuição de idiomas, que ela é super representativa da distribuição de idiomas que a gente encontra no Globo, mas com uma correção necessária para você não prejudicar muitos idiomas que são pouco falados, mas que ainda assim tem necessidades econômicas e técnicas e de uso. Eles fizeram esse treinamento de modelo, a gente vê muito de modelos abertos sempre associados à academia.

também tem muito contato com pessoas da academia, seja da Europa, daqui do Brasil, dos Estados Unidos. Mas aqui no Brasil, a impressão que eu tenho, a gente vê, por exemplo, a Unicamp, como é que chama o centro de computação da Unicamp? Sempre esqueço o nome. O Recode AI. Isso, é. Então, a gente vê isso acontecer ainda um pouco mais acanhado do que a gente vê em outros lugares por conta de... O problema vem de antes, né? Disparidade financeira e desinvestimento, etc. Mas pensando no que estava sendo proposto,

no marco regulatório, no seu próprio contato com empresas parceiras, empresas colegas desse mesmo mercado. A gente tem uma estrutura que já poderia permitir esse tipo de pensar mesmo sobre a soberania e etc. Ou é o tipo de coisa que, assim, a gente vai poder passar a pensar nisso e ter a nossa estrutura aqui acadêmica e do meu setor corporativo se esse, esse, esse item do checklist acontecer e que vem de cima para baixo o governo, não sei. Eu estou tentando fechar essa conta, entendeu? Para ver qual seria o caminho para fazer isso funcionar.

Eu vou te responder dando um exemplo do que a gente fez agora há pouco. Primeiro, assim, nossa academia, ela toda, eu citei aqui que a gente tem uma parceria com a URGS, né? Unicamp, USP, cara, a gente é reconhecido mundialmente. O nosso talento acadêmico é fantástico. E a gente tem alguns centros acadêmicos e excelência de A hoje no Brasil, né? Tem o do professor Anderson, tem, enfim, tem alguns, né? Que são excelências de A e estão aí rodando o mundo, falando de A,

e lançando coisas interessantes. O que nós fizemos? A NVIDIA lançou o Nemotron Personas em algumas regiões do mundo. A gente chegou para a NVIDIA e falou, vamos lançar o Nemotron Personas Brasil. Nós somos a primeira empresa da América Latina que lançamos uma aplicação da NVIDIA em conjunto com eles. E lançamos em final de janeiro, no NVIDIA ID que teve em São Paulo, o Nemotron Personas Brasil, que nada mais é do que dados sintéticos baseados no IBGE

milhões de brasileiros, a gente criou 6 milhões de brasileiros absolutamente focados com dados do IBGE, do que representa o nosso povo, e isso virou um conjunto de datasets open source para qualquer pessoa poder pegar e treinar, fine-tunar o modelo e ele performar melhor para, por exemplo, uma aplicação de um chatbot de IA para atender o público nacional. Então, essas são iniciativas que a gente precisa ficar esperando. Na NVIDIA, a repercussão

global disso foi enorme. Aqui no Brasil, não tanto, mas a gente tem só esse ano mais cinco lançamentos com a NVIDIA nesse sentido, de trazer brasilidade para soluções que hoje são amplamente utilizadas para desenvolver aplicações e para fine-tonar modelos que performem melhor para determinadas tarefas. Então, a gente tomou essa iniciativa. Temos uma parceria grande com a NVIDIA e claro que o nosso time aqui, você imagina o que o nosso time de engenheiros hoje não aprende com o time de engenheiros

da NVIDIA. Então, por exemplo, a gente tem uma aplicação sendo feita por um órgão do governo federal que vai atender em média de 6 a 7 milhões de pessoas por dia, mas que ela precisa de um conjunto de guardrails que ainda não existia. E aí a gente levou esse desafio para a NVIDIA. NVIDIA, temos esse problema. Nos ajuda? Então hoje tem nove engenheiros da NVIDIA espalhados pelo mundo, trabalhando em conjunto com o nosso time de engenheiros aqui, construindo esse set de guardrails que vai ser anunciado agora no GTC lá em San José, na Califórnia.

iniciativas, e isso eu estou falando só da Wide, mas tem N outras empresas com capacidade para fazer o que a gente está fazendo. Então, essas iniciativas são importantes, e elas vão ganhar visibilidade. Então, tudo que a gente tem feito, a gente bota nessa estrutura de imprensa, a gente divulga, a gente fala, porque assim a gente vai consolidando o Brasil como um player relevante nesse mercado. E a gente tem que fazer parcerias, não tem jeito. Então, acho que esse é um ponto importante. Não adianta a gente ficar esperando só também o governo fazer.

a parte dele, entendeu? A gente tem que ajudar a incentivar o governo a lhe acelerar, a gente tem que ir lá em Brasília, a gente vai toda hora em Brasília. Toda semana eu e o nosso Unione, a gente está em Brasília, a gente faz reunião, isso faz parte do nosso dia a dia. Mas a gente também não dá para ficar esperando isso o tempo todo. A gente tem que fazer a nossa parte. Então, quando a gente faz uma aplicação dessa, quando a gente desenvolve algo e abre para todo mundo, para todo o nosso ecossistema brasileiro poder utilizar de algo que foi feito em conjunto com a NVIDIA, eu acho que a gente está contribuindo para que o nosso mercado

evolua, evolua tecnicamente e a gente possa ter melhores condições de competição global. E nesses contatos mais frequentes e mais atuais que você tem tido em Brasília, dá para perceber que a própria compreensão técnica das necessidades, o que significa, ela está ok, o pessoal está, não é aprendendo, não quero subestimar conhecimento técnico de ninguém, mas no passado a gente via com mais frequência, é o que você falou, de você explicar a base e o pessoal fala, tá,

Me explica de novo, agora eu entendi qual que é o problema. Como é que está hoje em dia essa conversa? Está mais de igual para igual? Ah, eu acho que sim. Eu acho que tem muita gente já do governo, tanto do MCTI quanto do MDIC ali. Acho que tem ministérios muito bem informados, tem gente muito competente no governo, já entendem muito. O Brasil está avançando. Eu acho que nos próximos aí, acho que ainda dentro desse ano vão ter notícias importantes aí de estrutura.

já tem uma compreensão muito boa, a gente tem tido muita conversa com eles. Hoje a gente tem o privilégio, a gente conseguiu um contrato em conjunto com a Oracle, mas a gente hoje é a fábrica da Dataprev, então a gente está desenvolvendo, a fábrica funciona de uma maneira bem interessante, os nossos serviços são sempre atrelados à capacidade computacional, então a gente chama que a gente tem um nó de setup, esse nó de setup é um nó de H100, são 8 GPUs de H100,

e a gente entrega três equipes para desenvolver três projetos em paralelo de clientes da Dataprev. A Dataprev não é o cliente final, ela fornece tecnologia para vários órgãos do governo. No âmbito federal tem Dataprev CERP, no âmbito estadual tem as PRODs. Então, Dataprev é um player importante. A gente é a fábrica de A da Dataprev hoje, produzindo soluções, três em paralelo. Quando essa solução ficar pronta, ela vai para uma fase de homologação

entra no que a gente chama de nó de ongoing. E aí, se aquela solução vai precisar de um ou dez nó de ongoing para sobreviver, depende da quantidade de capacidade computacional que ela vai exigir. Então, a gente tem tido o privilégio de produzir soluções críticas para missões críticas do governo federal para alguns órgãos. Isso vai estar sendo anunciado nos próximos meses. A gente tem a principal delas, entra em produção agora, ainda em março. Já está em fase de homologação final.

tem teste, tem teste de meta e tal, depois ela começa a abrir para público, então a gente tem esse privilégio de estar, a gente hoje é uma pedra no sapato da turma, a gente está indo para lá, está pressionando, olha o que está acontecendo, isso aqui é legal, tem que fazer, tem que investir, e o governo está, eu acho que a gente está evoluindo muito nesse quesito, eu acho que o Brasil vai conseguir dar os seus passos aí. E como que vocês estão fazendo? Você mencionou que vocês têm alguns PhDs trabalhando na empresa,

que está organizado esse time técnico atualmente? Seja a galera mais, vamos dizer, engenheira ou FDE, que seria o trabalho hoje em dia, esse que você vai no cliente e tudo mais, né? Ou seja, a galera que usa o Dev mesmo, mas a galera que está por trás da criação, do treinamento. Quantas pessoas tem para esse time? Olha, Fabrício, esse time hoje é composto por 42 pessoas. Dessas 42 pessoas, a gente tem hoje 8 ou 9 na área de pesquisa, especificamente.

é um time apartado. Ele não está em contato com outro time. Então, quando tem algum desafio que ainda não tem uma tecnologia que a gente já tenha desenvolvido, isso vai para o time de pesquisa. O time de pesquisa tem duas atribuições. Resolver problemas que ainda não estão resolvidos e aprimorar a qualidade dos nossos modelos fundacionais. Os nossos modelos lá tem os de áudio, os de linguagem, todos eles. Então, essa é a atribuição do time de pesquisa. E todos os nossos

o nosso time, engenheiros, devs, engenheiros de prompt, gente de criação, tudo isso, eles estão em contato com poucas pessoas que têm contato com os clientes. Então a gente tem ali um turma, são seis diretores hoje, que têm contato diretamente com os clientes que demandam todos esses projetos. Então a gente tem um cara, um diretor nosso que é responsável pelo levantamento de requisitos. Então chegou um briefing, esse cara vai detalhar aquele briefing profundamente, vai fazer várias reuniões com aquele cliente, vai entender aquele briefing,

levantar todos os requisitos, o fluxo daquela aplicação final, o que aquela aplicação precisa resolver, e aí ele começa a internalizar isso para os nossos outros diretores que vão começar a trabalhar com o pessoal de desenvolvimento. E aí o pessoal de pesquisa eventualmente vai, olha, isso aqui a gente não consegue solucionar, vai para o pessoal de pesquisa, eles lá dentro tentam encontrar uma solução e devolvem para os devs, olha, dessa maneira aqui dá para resolver.

nosso CTO, que é o Rodrigo Malossi. E vocês têm trabalhado com outras empresas do Brasil, trocado figurinhas, a gente conhece, tem amigos lá na Maritaca AI, por exemplo, que é associada, não é associada, mas enfim, saiu da Unicamp, podemos dizer assim, com o Rodrigo, o Hugo, o Ramon, a galera de lá, e outras empresas que estão tentando fazer uma coisa do zero no Brasil mesmo, chega a ter esse contato ou não muito? Não muito, com a Maritaca especificamente não, eu não conheço ninguém lá, acho que talvez o Leone conheça,

Mas a gente sempre está em contato com algumas empresas brasileiras. Tem a Oracle que eu promova alguns eventos, o WS também. A gente sempre encontra com algumas empresas, especificamente a Maritaca não, eu não sei porquê, talvez seja uma coincidência, eu não tenho encontrado com eles ainda. Mas a gente está sempre em contato com várias empresas. Teve um evento agora em Brasília, promovido pelo MDIC do CERPRO, para a gente apresentar empresas brasileiras para algumas empresas chinesas. Outro dia a gente teve um almoço a WS que tinham várias empresas brasileiras de A lá.

brasileiros muito importantes aqui no Brasil que estão desenvolvendo soluções bem bacanas, bem legais para vários setores da economia. Então a gente tem bastante contato. Especificamente com a Maritaca, eu pessoalmente não tive contato com eles. E André, eu estava vendo aqui o site da Wide Labs, que tem o Amazon e tal. Dá para testar o chatbot por lá, mas ele não deixa você usar a API. Vocês ainda não têm? Vocês têm planos de liberar a API em breve?

Então, ele não é aberto. Os nossos modelos todos são fechados. A versão que está online lá hoje é uma versão bem desatualizada. O nosso foco não é o público final, usar o Amazonia para perguntas e respostas. Mas se você se cadastrar, entrar em contato com a gente, aí sim a gente libera uma API para testes, etc. Já da versão mais moderna, da versão mais atual. Mas não é uma coisa aberta para o público. Em momento nenhum a gente pensa,

uma assinatura e tal, não faz parte do nosso, assim, o nosso foco principal é desenvolver soluções complexas para a missão crítica. E a gente pode ajudar o nosso cliente a provisionar desde a infraestrutura física, modelos e aplicação final. E André, uma pergunta que eu sempre faço aqui para aprender com todo mundo que participa do podcast é como é que você tem usado IA no seu dia a dia? Para o trabalho, para a parte pessoal, projetos, webcoding, não sei, como é que está para você? Bom, eu, a minha função é mais administrativa,

Eu, como falei para vocês desde o início, não sou um cara muito técnico, cuido muito de parte de operações e finanças. Então, a IA acaba me ajudando muito. Hoje é uma loucura. Até é uma loucura você encontrar, não adianta, às vezes você quer usar mil ferramentas e acaba não... Então, hoje eu tenho, obviamente, algumas ferramentas próprias aqui da empresa. A gente tem, por exemplo, o Amazonia 360, que ele é um gestor de conhecimento da nossa empresa.

a nossa empresa, seja na área financeira, administrativa, de contrato, jurídico, tudo, eu converso com ele. Então, tem um prompt dele aqui, em linguagem, eu posso inclusive mandar áudio, falar, olha, eu preciso consultar os últimos cinco contratos sobre aquele tema, ele traz, olha, os últimos cinco contratos foram esses, esses, esses, tá bom, agora me faz um resumo para uma... Então, ele me ajuda, é uma loucura, né? Então, me traz o fechamento financeiro lá que está no sistema dos últimos cinco meses do cliente e tal. Ah, o fulano está me cobrando uma coisa,

isso que eu não paguei. Pega os últimos pagamentos. Então, isso tudo economiza tempo. Então, quando eu me reúno com o meu time aqui, com o financeiro, contabilidade, parte jurídica e tudo, eu já tenho uma boa parte do trabalho feita de forma muito rápida. Antigamente, a gente perdia muito tempo para ir lá, consultar na base, buscar aquele contrato. Não achei. Será que está onde? Está num drive. Hoje em dia, isso tudo é muito rápido, muito automático, muito fácil de fazer. Então, facilita muito a vida.

eficiência. Eu acho que tem uma coisa interessante. Você perguntou disso, vou fazer um comentário rápido. Tem uma história hoje, muita gente fala, a IA não gera ROI, não gera retornos ou return of investment. Essa é uma coisa que está todo mundo falando, porque a gente vê a Open AI queimar bilhões e bilhões de caixa ao longo do ano. Mas se a gente está olhando para a ROI só em aumento de receita, nós vamos analisar a ROI em eficiência e corte de custo. E eu não estou falando de mandar um monte de gente embora.

mesmo. E aí, quando você transfere isso para o setor público, o quanto a gente não tem de coisas represadas que geram um custo monstruoso para o orçamento dos estados, dos municípios e do governo federal, que poderiam ser agilizadas e economizar dinheiro. E mais importante que isso, fazer com que o dinheiro que precisa chegar na mão do cidadão que está precisando, chegue mais rápido. Muito bem, André. Obrigado. Maravilha, gente. Eu que agradeço. Papo super legal. A gente poderia ficar aqui mais algumas horas batendo esse papo. Ele é sempre super legal. Ainda mais com gente que, como

vocês que entendem o assunto. Sem dúvida. Obrigado pelo seu tempo. Para quem quiser continuar esse papo, talvez, com você, conhecer mais sobre a Wide Labs, para onde vai? Cara, só no e-mail também, andré, arroba, widelabs.com.br. É só me mandar e-mail. Estou sempre procurando atender todo mundo que eu consigo. Perfeito. Obrigado mais uma vez. Parabéns mais uma vez. E para você que quer ver de perto essas empresas permissivas do Vale do Silício, está acabando o tempo, está acabando as vagas, na verdade, para você poder ir comigo com o Fabrício.

com o Paulo Silveira da Alura, com o Marcel Almeida da PM3, lá para o Vale do Silício, de 31 de agosto ao dia 4 de setembro, na nossa missão. E há sob controle no Vale do Silício com a Startse, onde a gente vai visitar um monte das empresas que a gente comenta aqui em todos os episódios. E no site, que está aqui na descrição, você pode ver, em uma viagem passada da Startse, como é que foi o esquema das empresas de visita, o calendário, o dia a dia, que é puxado, vai ser o dia inteiro visitando, com palestra, com...

Olha, vai ser muito bacana. A gente quer ir com você. E pra dar tempo de você ver toda a parte de passagem, de hotel, de visto. Tá acabando o tempo, na verdade. Estamos já no meio de março, que é quase o fim de março, que é quase agosto, né? Então passa aqui na descrição do episódio, pega o link pra você conhecer mais sobre a missão. E há sobre o controle da imersão aqui, há sobre o controle do Vale do Silício. E eu e o Fabrício voltaremos na sexta-feira com o nosso resumão das notícias do mundo da inteligência artificial. Até lá!

Este podcast foi produzido pela Alura. Mergulhe em Tecnologia. E Faculdade FIAP. Let's Rock the Future. Edição Rede Gigahertz de Podcasts.