Você já se viu prestes a fazer uma compra controversa e, no momento de clicar no botão "comprar", um pensamento inesperado cruza sua mente? Esse diálogo interno, que o autor Daniel Kahneman, em seu livro "Rápido e Devagar: Duas Formas de Pensar", chama de "Sistema 2", representa o pensamento lento, consciente e deliberado. Em contraste, o "Sistema 1" é subconsciente e automático, como reconhecer um rosto familiar em uma multidão. E onde as IAs se encaixam nisso? Atualmente, os Large Language Models (LLMs) operam predominantemente no modo Sistema 1. Eles são excelentes em prever a próxima palavra, mas ainda não conseguem dedicar 40 minutos para processar uma solicitação, analisar um problema de várias perspectivas e oferecer uma solução verdadeiramente racional.
No entanto, existem maneiras de contornar essa limitação e simular o pensamento racional nos LLMs. Duas abordagens se destacam: o "tree of thought prompting", que força o LLM a considerar um problema de múltiplos ângulos, como se fosse um conselho de especialistas, e o uso de plataformas como a Crew AI. A Crew AI permite que qualquer pessoa, mesmo sem habilidades de programação, crie seus próprios agentes de IA especializados, que colaboram entre si para resolver tarefas complexas. A plataforma possibilita a integração com diversos modelos de linguagem via API, além de permitir a execução de modelos locais via Ollama, oferecendo flexibilidade e controle sobre o processo.

Construir uma equipe de agentes na Crew AI é surpreendentemente simples. Comece instalando a biblioteca via pip: pip install crew-ai. Em seguida, importe os módulos necessários e configure sua chave da OpenAI. O exemplo a seguir demonstra a criação de três agentes: um especialista em pesquisa de mercado, um tecnólogo e um especialista em desenvolvimento de negócios. Para cada agente, defina um papel, um objetivo e uma breve história para contextualizar sua atuação. O parâmetro verbose=True permite que os agentes gerem saídas detalhadas e colaborem de forma mais eficiente.
Após definir os agentes, crie tarefas específicas para cada um. No exemplo, a ideia é desenvolver um novo produto: plugs elegantes para Crocs. O agente de marketing analisa a demanda potencial, o tecnólogo avalia a viabilidade técnica e o especialista em desenvolvimento de negócios elabora um plano de negócios. Finalmente, instancie a "crew", definindo o processo de colaboração entre os agentes, que, por enquanto, é sequencial. A saída de um agente serve como entrada para o próximo.
Para tornar os agentes mais inteligentes, utilize ferramentas que forneçam acesso a dados do mundo real. A LangChain oferece uma variedade de ferramentas pré-construídas, como acesso ao YouTube, Google Search, Wikipedia e até mesmo a possibilidade de gerar voz com o 11 Labs. Outra ferramenta útil é o “Human input”, que solicita feedback do usuário em caso de informações conflitantes. No exemplo da newsletter sobre IA, uma ferramenta de raspagem de dados do Reddit (subreddit r/LocalLLama) foi criada para fornecer informações atualizadas aos agentes, demonstrando o poder da personalização e a capacidade de integrar dados relevantes ao processo.
Utilizar modelos locais com Ollama oferece privacidade e economia, eliminando a necessidade de chamadas de API pagas. No entanto, a experiência com diversos modelos open-source mostrou resultados variados. Enquanto alguns modelos, como o OpenChat, conseguiram gerar textos com formato de newsletter, a maioria falhou em compreender a tarefa e gerar conteúdo relevante a partir dos dados do Reddit. Surpreendentemente, o modelo Llama 13B (não especializado), apesar de não gerar um texto no formato ideal, foi o único que conseguiu utilizar as informações do subreddit, demonstrando a importância da experimentação e da escolha do modelo adequado para cada tarefa. É fundamental considerar os requisitos de memória RAM ao executar modelos locais, garantindo que seu hardware seja compatível com o tamanho do modelo escolhido.
A jornada com a Crew AI e os modelos de linguagem está apenas começando. A capacidade de criar equipes de agentes especializados, equipá-los com ferramentas poderosas e integrá-los com dados do mundo real abre um universo de possibilidades para automação e resolução de problemas complexos. A experimentação e a busca por novas abordagens são essenciais para explorar todo o potencial dessa tecnologia em constante evolução.