Come Costruire un'AI Pipeline Editoriale Automatizzata con Next.js e Supabase
Anselmo
Una guida pratica per costruire un sistema editoriale automatizzato che usa Perplexity, Kimi e Claude per produrre contenuti di qualità in modo autonomo.
Il Problema: Produrre Contenuti di Qualità a Scala
Gestire un blog professionale nel 2026 significa confrontarsi con una sfida reale: come produrre contenuti di alta qualità con continuità, senza dedicare l'intera giornata alla scrittura? La risposta che ho trovato — e che ha trasformato il mio modo di fare content — è una pipeline editoriale AI completamente automatizzata.
In questo tutorial, ti mostro esattamente come ho costruito il sistema che alimenta questo blog: dalla ricerca automatica di topic freschi, alla scrittura della bozza, all'umanizzazione del testo, fino alla pubblicazione.
L'Architettura della Pipeline
Il sistema si divide in 4 fasi sequenziali, ognuna gestita da un modello AI diverso:
- Fase 1 — Discovery (Perplexity): Identifica i topic più freschi e rilevanti sul web
- Fase 2 — Strutturazione (Kimi): Crea outline dettagliato e ricerca approfondita
- Fase 3 — Scrittura (Claude): Produce il testo finale con voce editoriale autentica
- Fase 4 — Review (Gemini): SEO check, fact-checking, ottimizzazione finale
Setup Iniziale: Next.js 14 + Supabase
Per il backend, ho scelto Next.js 14 con App Router per le API Routes e Supabase come database PostgreSQL. Questa combinazione è ideale perché:
- Le API Routes di Next.js gestiscono ogni step della pipeline
- Supabase gestisce lo stato degli articoli con Row Level Security
- Vercel Cron Jobs schedulano l'esecuzione automatica ogni 3 giorni
Il Database: Schema degli Articoli
Lo schema Supabase per gestire gli articoli attraverso i vari stati della pipeline:
CREATE TABLE articles (
id UUID PRIMARY KEY DEFAULT gen_random_uuid(),
title TEXT NOT NULL,
slug TEXT UNIQUE NOT NULL,
status TEXT DEFAULT 'idea',
content_html TEXT,
meta_description TEXT,
category TEXT,
keywords TEXT[],
freshness_score INT DEFAULT 0,
published_at TIMESTAMPTZ,
created_at TIMESTAMPTZ DEFAULT NOW(),
updated_at TIMESTAMPTZ DEFAULT NOW()
);
Fase 1: Discovery con Perplexity
Perplexity sonar-pro è perfetto per la discovery di topic freschi perché ha accesso al web in tempo reale. La chiamata API è semplice:
const response = await fetch('https://api.perplexity.ai/chat/completions', {
method: 'POST',
headers: {
'Authorization': `Bearer ${process.env.PERPLEXITY_API_KEY}`,
'Content-Type': 'application/json',
},
body: JSON.stringify({
model: 'sonar-pro',
messages: [{
role: 'user',
content: 'Trova i 5 topic AI più rilevanti della settimana...'
}]
})
});
Fase 3: Umanizzazione con Claude
La fase più critica è l'umanizzazione: trasformare il testo tecnico in una voce editoriale autentica. Con Claude, uso un system prompt che definisce la brand voice:
"Sei un esperto di AI che scrive per professionisti italiani. Stile: diretto, pratico, senza gergo inutile. Usa esempi reali. Aggiungi prospettiva critica quando necessario."
Conclusione
Costruire questa pipeline ha richiesto circa 2 settimane di sviluppo, ma i risultati parlano da soli: riesco a pubblicare 3-4 articoli a settimana di alta qualità, con intervento umano limitato alla review finale e alla pubblicazione. Il futuro del content è ibrido: AI per la produzione, umano per la direzione editoriale.