Strategie AI, tutorial operativi e casi reali per professionisti italiani
Tutorial
Tutorial
Next.jsSupabaseAI pipeline

Come Costruire un'AI Pipeline Editoriale Automatizzata con Next.js e Supabase

A

Anselmo

3 marzo 2026 12 min

Una guida pratica per costruire un sistema editoriale automatizzato che usa Perplexity, Kimi e Claude per produrre contenuti di qualità in modo autonomo.

Il Problema: Produrre Contenuti di Qualità a Scala

Gestire un blog professionale nel 2026 significa confrontarsi con una sfida reale: come produrre contenuti di alta qualità con continuità, senza dedicare l'intera giornata alla scrittura? La risposta che ho trovato — e che ha trasformato il mio modo di fare content — è una pipeline editoriale AI completamente automatizzata.

In questo tutorial, ti mostro esattamente come ho costruito il sistema che alimenta questo blog: dalla ricerca automatica di topic freschi, alla scrittura della bozza, all'umanizzazione del testo, fino alla pubblicazione.

L'Architettura della Pipeline

Il sistema si divide in 4 fasi sequenziali, ognuna gestita da un modello AI diverso:

  • Fase 1 — Discovery (Perplexity): Identifica i topic più freschi e rilevanti sul web
  • Fase 2 — Strutturazione (Kimi): Crea outline dettagliato e ricerca approfondita
  • Fase 3 — Scrittura (Claude): Produce il testo finale con voce editoriale autentica
  • Fase 4 — Review (Gemini): SEO check, fact-checking, ottimizzazione finale

Setup Iniziale: Next.js 14 + Supabase

Per il backend, ho scelto Next.js 14 con App Router per le API Routes e Supabase come database PostgreSQL. Questa combinazione è ideale perché:

  • Le API Routes di Next.js gestiscono ogni step della pipeline
  • Supabase gestisce lo stato degli articoli con Row Level Security
  • Vercel Cron Jobs schedulano l'esecuzione automatica ogni 3 giorni

Il Database: Schema degli Articoli

Lo schema Supabase per gestire gli articoli attraverso i vari stati della pipeline:

CREATE TABLE articles (
  id UUID PRIMARY KEY DEFAULT gen_random_uuid(),
  title TEXT NOT NULL,
  slug TEXT UNIQUE NOT NULL,
  status TEXT DEFAULT 'idea',
  content_html TEXT,
  meta_description TEXT,
  category TEXT,
  keywords TEXT[],
  freshness_score INT DEFAULT 0,
  published_at TIMESTAMPTZ,
  created_at TIMESTAMPTZ DEFAULT NOW(),
  updated_at TIMESTAMPTZ DEFAULT NOW()
);

Fase 1: Discovery con Perplexity

Perplexity sonar-pro è perfetto per la discovery di topic freschi perché ha accesso al web in tempo reale. La chiamata API è semplice:

const response = await fetch('https://api.perplexity.ai/chat/completions', {
  method: 'POST',
  headers: {
    'Authorization': `Bearer ${process.env.PERPLEXITY_API_KEY}`,
    'Content-Type': 'application/json',
  },
  body: JSON.stringify({
    model: 'sonar-pro',
    messages: [{
      role: 'user',
      content: 'Trova i 5 topic AI più rilevanti della settimana...'
    }]
  })
});

Fase 3: Umanizzazione con Claude

La fase più critica è l'umanizzazione: trasformare il testo tecnico in una voce editoriale autentica. Con Claude, uso un system prompt che definisce la brand voice:

"Sei un esperto di AI che scrive per professionisti italiani. Stile: diretto, pratico, senza gergo inutile. Usa esempi reali. Aggiungi prospettiva critica quando necessario."

Conclusione

Costruire questa pipeline ha richiesto circa 2 settimane di sviluppo, ma i risultati parlano da soli: riesco a pubblicare 3-4 articoli a settimana di alta qualità, con intervento umano limitato alla review finale e alla pubblicazione. Il futuro del content è ibrido: AI per la produzione, umano per la direzione editoriale.

Tutti gli articoli

Il vantaggio dell'IA ogni settimana

Analisi, tutorial e news per restare avanti nel mondo AI.