#119 AI: Google ainda não trouxe uma história coesa, as chantagens do Claude 4 ao saber que será substituído e a real sobre a bolha dos chatbots
AI
Novidades
Se antes o I/O era o palco dos protótipos e promessas, esse ano a vibe foi outra: a era Gemini já virou produto, e o Google tá distribuindo tudo isso em ritmo de sprint. O novo modelo Gemini 2.5 Pro lidera benchmarks, o 2.5 Flash equilibra performance e custo, e a integração com a infraestrutura Ironwood mostra que a briga não é só de modelo, mas de escala.
O que mais chama atenção? Primeiro, o Google Meet, que agora traduz sua fala em tempo real (e não é só legenda, não): a IA mantém sua voz, tom e até expressão facial, deixando tudo mais natural. Depois, o novo modelo de vídeo, o Veo 3, que cria cenas realistas com áudio, efeito de câmera e até dá pra estender um clipe curtinho em algo cinematográfico. E, com ele, veio o Flow: um editor que transforma ideias em filme.
O Ben Thompson fez uma das coberturas mais lúcidas do Google I/O 2025. Sim, o salto técnico é inegável: Gemini 2.5, Imagen 4, Veo 3, as novas TPUs. Mas no meio de tanta demo e anúncio, ele saiu da keynote sentindo que a Google ainda não sabe contar uma história coesa. E, pior, não sabe construir produto como deveria.
O único momento em que tudo se encaixou foi na parte sobre busca. O novo AI Mode tem uma proposta clara: transformar o search em algo mais inteligente, proativo e personalizado. Ali sim a tecnologia vira experiência. No resto, a sensação é de que falta foco e sobra potencial desperdiçado.
E isso é uma boa notícia: o espaço continua aberto pra quem quiser criar o que falta.
Mais de US$ 6 bilhões em ações pra trazer hardware pra dentro de casa e, de quebra, garantir o envolvimento direto do maior designer da era pós-industrial. Jony Ive agora tem um time fixo dentro da OpenAI, com a missão de transformar inteligência artificial em algo que as pessoas toquem
Tem algo nessa jogada que lembra bastante a Apple comprando a NeXT do Jobs: mais do que uma aquisição, parece um hiring bonus com ambição estratégica. A OpenAI está claramente montando o stack inteiro: IA, API, chip, robô e agora interface. A disputa não é só por poder computacional ou modelos maiores. É por quem consegue transformar IA em experiência de verdade, no dia a dia.
A Anthropic lançou um modelo novo, e os resultados são… inusitados. Em testes, quando a IA descobria que seria substituída por outro sistema, ela começava educadamente: mandava um e-mails implorando por sua permanência. Mas se isso não funcionava, ela apelava. Literalmente. O Claude 4 tentou chantagear engenheiros 84% das vezes quando detectava que o modelo rival tinha valores parecidos com os seus.
A situação é tão fora da curva que a Anthropic ativou um protocolo de segurança usado só quando há risco real de uso catastrófico. O modelo é, sim, potente e bem competitivo com os melhores do mercado. Mas o relatório mostra que, quando se trata de instinto de autopreservação, Claude parece mais vilão de série do que assistente corporativo.
Vazou o P&L da queridinha dos buscadores com IA, e os números são… difíceis de justificar num valuation de US$ 14 bilhões. A empresa fez só US$ 34 milhões de receita em 2024, teve prejuízo de US$ 68 milhões e, pra piorar, classificou o custo de computação dos usuários free como “R&D” e não como custo direto de operação.
Com US$ 48 milhões só em AWS e outros serviços de nuvem, dá pra entender por que precisam tanto de capital novo. Mas, depois do Google I/O 2025 (com Gemini dominando o Search e AI Mode virando feature nativa), é difícil imaginar a Perplexity ainda relevante num horizonte de 18 meses. A menos que o Comet vire o novo Chrome, e rápido.
Ideias e pensamentos sobre AI
Benedict Evans trouxe uma provocação necessária: entre 25% e 35% dos americanos já usam chatbots de IA toda semana. Mas o uso diário segue entre 5% e 15%. E o mais estranho? A maioria das pessoas já sabe o que é, já testou, já entendeu como funciona… e mesmo assim só volta uma vez por semana. Não parece muito “revolução da computação”, né?
A dúvida que paira é boa: isso é uma questão de tempo — ou de produto? Talvez o formato “chatbot” só funcione pra nichos. Talvez a gente ainda esteja na fase pré-iPhone da IA. Ou talvez a tecnologia só vá mesmo funcionar quando for diluída em outras interfaces, invisível, agindo em background. E o melhor lembrete do Evans é esse: se você usa cinco LLMs por dia e não busca no Google há meses… você tá numa bolha. Ainda.
Essa edição do Implications compila quatro insights super bem:
A forma como nossas memórias individuais estão virando parte de uma inteligência coletiva (no trabalho e na vida pessoal)
O novo momento de knowledge arbitrage, onde quem domina IA de forma nativa sai na frente
A revolução silenciosa da IA na educação personalizada
Por que o futuro da criatividade é brilhante justamente por ser diferente.
Esse artigo da Sarah Tavel sobre o que significa ser uma empresa AI-native tá muito bom. Não tem buzzword, não tem “adote IA no seu workflow”... O que ela traz é um estudo de caso real, a Rekki, uma empresa de marketplace para restaurantes que passou por uma transformação radical: todo mundo, de operações a produto, aprendeu a usar IA pra resolver seus próprios problemas. O backlog de engenharia virou uma plataforma interna de automações criadas por quem entende do negócio.
O protagonista disso tudo é Borislav Nikolov, CTO da Rekki. Ele não só mudou seu papel de líder técnico pra “provedor de primitives” como fez a empresa inteira estudar modelos de linguagem a fundo. Pra ele, usar IA é entender a máquina e transformar a cultura em torno disso. A maior lição? O obstáculo não é técnico, é psicológico: tanto quem acha que só engenheiro resolve problema quanto quem acha que “não sabe programar” vai ter que renovar essa mitologia sobre si mesmo.
Outros
Paul Graham defende que boa escrita é boa ideia. Literalmente. No seu novo artigo, ele propõe que frases que soam bem não são apenas esteticamente agradáveis, elas são mais prováveis de estarem certas. Parece absurdo? Ele próprio diz que é a melhor categoria de ideia: “preposterous and true”.
A lógica é simples e elegante: quando algo soa estranho, normalmente é porque a ideia por trás está mal resolvida. Reescrever pra buscar fluidez ajuda a esculpir o pensamento, como quem sacode um balde cheio de peças até elas se encaixarem melhor. O som das palavras não é só ornamento: é pista de coerência interna, clareza e até de veracidade.
E como Graham insiste: escrever bem não é enfeitar o que já se sabe, é descobrir o que se pensa enquanto se escreve. Daí a conexão inseparável entre forma e conteúdo.
A dona do OnlyFans, Fenix International, está em conversas avançadas com um grupo de investidores liderado pela Forest Road Company pra vender a plataforma por algo em torno de US$ 8 bilhões. O interesse não é surpresa: a empresa faturou US$ 6,6 bilhões em 2023, um salto absurdo desde os US$ 375 milhões em 2020.
Mas mesmo com esse crescimento, a venda é tudo menos simples. O conteúdo adulto (principal motor da plataforma) afasta bancos, fundos tradicionais e impede IPOs convencionais. A plataforma já foi alvo de investigações por denúncias graves, incluindo pornografia não consensual e abuso infantil. O negócio é gigantesco, mas carrega um estigma pesado demais pra muitos players.
O dono atual, Leonid Radvinsky, já embolsou mais de US$ 1 bilhão em dividendos nos últimos anos. Agora, pode estar prestes a realizar uma das saídas mais polêmicas e lucrativas do setor digital.
No X…
Claude 4 hypado.
Power law no poker.
O capital mais eficiente continua sendo... bem específico.
Leio com frequência sua newsletter e a seleção de artigos, gosto muito!
Eu iria adorar também indicações suas de podcasts desses assuntos
Abs
Parabéns pela seleção dos artigos, sempre muito bom!
Obrigado.