Enriqueça DataFrames com LLMs de forma simples e estruturada.
DataFrameIt processa textos em DataFrames usando Modelos de Linguagem (LLMs) e extrai informações estruturadas definidas por modelos Pydantic.
Documentação Completa | Referência para LLMs
pip install dataframeit[google] # Google Gemini (recomendado)
pip install dataframeit[openai] # OpenAI
pip install dataframeit[anthropic] # Anthropic ClaudeConfigure sua API key:
export GOOGLE_API_KEY="sua-chave" # ou OPENAI_API_KEY, ANTHROPIC_API_KEYfrom pydantic import BaseModel
from typing import Literal
import pandas as pd
from dataframeit import dataframeit
# 1. Defina o que extrair
class Sentimento(BaseModel):
sentimento: Literal['positivo', 'negativo', 'neutro']
confianca: Literal['alta', 'media', 'baixa']
# 2. Seus dados
df = pd.DataFrame({
'texto': [
'Produto excelente! Superou expectativas.',
'Péssimo atendimento, nunca mais compro.',
'Entrega ok, produto mediano.'
]
})
# 3. Processe!
resultado = dataframeit(df, Sentimento, "Analise o sentimento do texto.")
print(resultado)Saída:
| texto | sentimento | confianca |
|---|---|---|
| Produto excelente! ... | positivo | alta |
| Péssimo atendimento... | negativo | alta |
| Entrega ok... | neutro | media |
- Múltiplos providers: Google Gemini, OpenAI, Anthropic, Cohere, Mistral via LangChain
- Múltiplos tipos de entrada: DataFrame, Series, list, dict
- Saída estruturada: Validação automática com Pydantic
- Resiliência: Retry automático com backoff exponencial
- Performance: Processamento paralelo, rate limiting configurável
- Busca web: Integração com Tavily para enriquecer dados
- Tracking: Monitoramento de tokens e métricas de throughput
- Início Rápido
- Guias
- Referência da API
- Referência para LLMs - Página compacta otimizada para assistentes de código
Veja a pasta example/ para notebooks Jupyter com casos de uso completos.
MIT