CONTENUTI
Fondamenti degli LLM e Prompt Engineering
- Introduzione agli LLM: cosa è un Large Language Model, come funziona, concetti di token e contesto.
- Cosa è il Prompt Engineering: definizione, obiettivi e perché è importante.
- Perché il Prompt Engineering è una disciplina: motivazioni, casi d’uso e impatto sul lavoro.
- Inside LLMs, Architettura e Transformer Model: come ragionano i modelli, concetti di non-determinismo.
- System Message e User Message: differenza tra istruzioni di sistema e input utente.
- Context e Context Window: gestione del contesto, limiti e strategie.
- Personas e Tone of Voice: come impostare ruoli e stili nei prompt.
- Esercizi: scrittura di prompt base chiari e specifici.
Tecniche di Prompting
- Zero-Shot, One-Shot e Few-Shot Prompting: differenze e applicazioni.
- Chain-of-Thought Prompting: come guidare il ragionamento del modello.
- Prompt Chaining: creare sequenze di prompt per task complessi.
- Delimiters e Struttura del Prompt: uso di separatori e formattazione.
- In-Context Learning: come sfruttare esempi nel prompt.
- Gamification e Modalità Interattive: tecniche per rendere il prompting più efficace.
- Esercizi: creare prompt per casi reali (es. Customer Support).
- Laboratorio: prompt per generare output strutturati (Excel, Flowchart), hands-on con ChatGPT e Claude.
Prompt Engineering Avanzato
- Guardrails e Sicurezza: Many-shot jailbreak, Prompt Injection, Data Leaking.
- Gestione delle Hallucinations: strategie per ridurre errori e bias.
- Hyperparameters e Temperature: come influenzano la generazione del testo.
- Multi-Modality e Tools: prompting con immagini e audio.
- Function Calling e API Integration: come collegare LLM a API esterne.
- Prompt Variables e Auto-Priming: automatizzare la creazione di prompt.
- Laboratorio: creare un flusso di prompting complesso (esempio: workflow per analisi dati).
Testing e Valutazione dei Prompt
- Introduzione al Prompt Testing: perché testare i prompt e metriche di valutazione.
- Framework di Testing (PromptFoo): come strutturare test e benchmark.
- Golden Answer e Bias: valutazione qualitativa e quantitativa.
- Model Benchmarks (MMLU): come confrontare modelli e prompt.
- Esercizi: creare test per prompt complessi, hands-on con metriche e valutazione.
- Laboratorio: prompt testing con più modelli, confronto tra ChatGPT, Claude e LLM open source.
Applicazioni Avanzate e Futuro del Prompt Engineering
- Tree of Thoughts e Reasoning Acting (ReAct) Prompting: strategie per ragionamento complesso.
- Self-Consistency e Chain of Density: ottimizzare la qualità delle risposte.
- Applied Prompt Engineering: casi studio reali.
- Open Source LLMs e Setup Modelli Proprietari: LMStudio e modelli locali.
- Autonomous Agents e AutoGPT: come creare agenti autonomi con prompting.
- Scaling Laws e Implicazioni Future: evoluzione dei modelli e del prompting.
- Progetto finale: creazione di un prompt framework completo per un caso d’uso aziendale.