"Democratizing good Machine Learning, one model at a time."
::: info
Hugging Face è la piattaforma leader mondiale per la collaborazione e la condivisione di modelli, dataset e applicazioni di Machine Learning. È l'ecosistema dove ricercatori e sviluppatori pubblicano i "pesi" dei modelli (LLM, Visione, Audio) rendendoli accessibili a tutti.
:::
L'universo Hugging Face si basa su quattro pilastri principali:
transformers, diffusers, datasets).In qualità di Software Engineer, utilizzerai principalmente queste librerie Python:
transformers: La libreria principale per lavorare con modelli basati su architettura Transformer (BERT, GPT, Llama, ecc.).diffusers: Specializzata per modelli generativi di immagini e video (come Stable Diffusion).datasets: Per caricare e manipolare dati in modo efficiente, ottimizzando l'uso della RAM.huggingface_hub: Per interagire programmaticamente con il sito (scaricare/caricare modelli via codice).Usare una pipeline è il modo più rapido per eseguire l'inferenza senza configurazioni manuali.
from transformers import pipeline
from typing import List, Dict
# Inizializza la pipeline per l'analisi del sentiment
classifier = pipeline("sentiment-analysis")
def analyze_feedback(texts: List[str]) -> List[Dict]:
"""Analizza il sentiment di una lista di testi."""
results: List[Dict] = classifier(texts)
return results
# Esempio d'uso
data: List[str] = ["I love this new Wiki configuration!", "This bug is driving me crazy."]
print(analyze_feedback(data))
Come caricare un modello specifico e un tokenizer per generare testo.
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name: str = "gpt2" # O modelli più grandi come Llama-3
# Caricamento del Tokenizer e del Modello
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
def generate_ai_text(prompt: str) -> str:
"""Genera testo a partire da un prompt."""
inputs = tokenizer(prompt, return_tensors="pt")
with torch.no_grad():
output = model.generate(**inputs, max_length=50)
return tokenizer.decode(output[0], skip_special_tokens=True)
print(generate_ai_text("The future of software engineering is"))
Hugging Face copre quasi ogni dominio dell'IA moderna:
.gguf (solitamente forniti da contributor come TheBloke o Bartowski). Questi sono versioni "compresse" (quantizzate) dei modelli originali per girare su hardware consumer.~/.cache/huggingface. Assicurati di avere spazio su disco, poiché i modelli LLM possono pesare decine di GB.Ultimo aggiornamento: {{UPDATE_DATE}} | Tags: #AI #HuggingFace #Python #NLP #MachineLearning