LLM & Intelligence Artificielle¶
Architecture du routage LLM et intégration IA.
Routage Intelligent¶
graph TD
A[User Input] --> B[PII Detector]
B --> C{Score > 0.7?}
C -->|Oui| D[Ollama Local]
C -->|Non| E[Claude Cloud]
D --> F[Response]
E --> F Détection PII¶
Patterns détectés automatiquement:
| Type | Pattern | Poids |
|---|---|---|
user@domain.com | 0.8 | |
| Téléphone FR | +33 6 12 34 56 78 | 0.9 |
| Carte bancaire | 4111 1111 1111 1111 | 1.0 |
| IBAN | FR76 3000 6000... | 1.0 |
Mots-clés sensibles:
password,mot de passeapi_key,token,secretbank,salary,medical
Providers LLM¶
Ollama (Local)¶
Modèles recommandés:
| Modèle | RAM | Usage |
|---|---|---|
llama3 | 8 GB | Général |
phi3 | 4 GB | Léger, rapide |
mistral | 8 GB | Bon en français |
Claude (Anthropic)¶
GPT-4 (OpenAI)¶
Pipeline RAG¶
graph LR
A[Document] --> B[Chunking]
B --> C[Embedding]
C --> D[(pgvector)]
E[Query] --> F[Embed Query]
F --> G[Similarity Search]
D --> G
G --> H[Top-K Chunks]
H --> I[LLM Context]
I --> J[Response] Chunking Strategy¶
- Taille: 512 tokens
- Overlap: 50 tokens
- Séparateurs:
\n\n,\n,.
Embeddings¶
LangChain Agents¶
from langchain.agents import AgentExecutor
tools = [
WebSearchTool(),
CalculatorTool(),
DocumentSearchTool()
]
agent = AgentExecutor(
agent=create_react_agent(llm, tools),
tools=tools,
max_iterations=5
)