"No desenvolvimento de software tradicional, você planejava a v1, v2, v3 do novo produto com base na profundidade de recursos ou nas necessidades dos usuários. Com sistemas de IA, a perspectiva muda. Cada versão é definida, em vez disso, pela quantidade de autonomia que o sistema possui e quanto controle você está disposto a abrir mão. Comece identificando um conjunto de recursos que têm alto controle e baixa autonomia (versão 1 na imagem abaixo). Esses devem ser pequenos, testáveis e fáceis de observar. A partir daí, pense em como essas capacidades podem evoluir ao longo do tempo, aumentando gradualmente a autonomia, uma versão de cada vez. O objetivo é decompor um estado final ambicioso em comportamentos iniciais que você pode avaliar, iterar e construir a partir deles. Por exemplo, se seu objetivo final é automatizar o suporte ao cliente em sua empresa, uma maneira de alto controle para começar seria definir a v1 (versão 1) como simplesmente direcionar tickets para o departamento certo, depois passar para a v2 onde o sistema sugere possíveis resoluções, e somente na v3 permitir que ele resolva automaticamente com uma opção de fallback humano. Aqui estão mais alguns exemplos: Assistente de marketing v1: Redigir e-mail, anúncio ou texto para redes sociais a partir de prompts v2: Criar campanhas de múltiplas etapas e executá-las v3: Lançar, testar A/B e otimizar automaticamente campanhas em diferentes canais Assistente de codificação v1: Sugerir conclusões inline e trechos de código padrão v2: Gerar blocos maiores (como testes ou refatorações) para revisão humana v3: Aplicar mudanças específicas e abrir pull requests (PRs) de forma autônoma Se você acompanhou como ferramentas como GitHub Copilot ou Cursor evoluíram, este é exatamente o manual que eles usaram. A maioria dos usuários só vê a versão atual, mas o sistema subjacente subiu essa escada gradualmente. Primeiro conclusões, depois blocos, depois PRs, com cada passo conquistado através de uso, feedback e iteração." Mais aqui:
Lenny Rachitsky
Lenny Rachitsky20/08, 00:21
Não se pode construir produtos de IA como outros produtos. Os produtos de IA são inerentemente não determinísticos, e você precisa constantemente negociar o equilíbrio entre agência e controle. Quando as equipes não reconhecem essas diferenças, seus produtos enfrentam falhas inesperadas, ficam presos depurando grandes sistemas complicados que não conseguem rastrear, e a confiança do usuário no produto se erode silenciosamente. Após observar esse padrão se desenrolar em mais de 50 implementações de IA em empresas como @OpenAI, @Google, @Amazon e @Databricks, Aishwarya Naresh Reganti e Kiriti Badam desenvolveram uma solução: o framework de Calibração Contínua/Desenvolvimento Contínuo (CC/CD). O nome é uma referência à Integração Contínua/Implantação Contínua (CI/CD), mas, ao contrário de seu homônimo, é destinado a sistemas onde o comportamento é não determinístico e a agência precisa ser conquistada. Este framework mostra como: - Começar com recursos de alto controle e baixa agência - Construir sistemas de avaliação que realmente funcionam - Escalar produtos de IA sem quebrar a confiança do usuário É projetado para reconhecer a singularidade dos sistemas de IA e ajudar você a construir produtos de IA mais intencionais, estáveis e confiáveis. Eles estão compartilhando isso publicamente pela primeira vez:
64,1K