Vai al contenuto
Torna ai Case Study
Case StudyAI Governance · 2026 · 2026

Un profilo LinkedIn gestito da AI
per 35 giorni.
Nessuno l'ha notato.

Un esperimento in produzione: dati, framework e domande aperte sulla gestione autonoma di un profilo LinkedIn professionale tramite LLM. N=1, 35+ giorni, 28 task automatizzati.

35+
Giorni in produzione
Dal 3 marzo al 6 aprile 2026
28
Task automatizzati
Post, engagement, DM, audit, reporting, SEO
0
Detection incidents
Su 160+ interazioni pubbliche tracciate
3.5-4.0%
Engagement rate
Stabile nonostante impressioni 7x
6
Layer di governance
Regole, HVL, fingerprint, disclosure, Clarity Gate, verifica
3
Livelli di disclosure
#AIAssisted + profilo + pagina /ai-transparency
La Trasformazione

La Sfida

La domanda centrale

Cosa succede alla reputazione personale quando un'AI gestisce l'identità pubblica del suo operatore? Dove finisce l'assistenza e inizia la simulazione quando l'AI ha il fingerprint linguistico reale dell'operatore?

  • Contenuto AI-generated indistinguibile dall'operatore umano: 0 detection in 35+ giorni
  • Professionisti dell'AI hanno validato per nome commenti AI-generated senza sospetto
  • La disclosure via hashtag (#AIAssisted) è stata ignorata per 35 giorni: 0 domande dal pubblico
  • I 2 post con la performance più alta (51.6% impressioni) li ha scritti l'operatore, non il sistema
  • L'AI Act Art. 50(4) prevede un'eccezione editoriale: si applica a questo caso?
  • Il post-plagiarismo: testo linguisticamente inedito ma il contributo cognitivo è dell'operatore o della macchina?

La Soluzione

Framework di governance: 6 layer

Il sistema di governance è stato costruito iterativamente. Ogni layer risponde a problemi emersi in produzione, non a ipotesi preventive.

  • Level 1: 7 regole operative su timing, volume e contenuto (settimana 1-2)
  • Level 2: Human Voice Layer con 7 tell AI identificati, 6 strutture alternative in rotazione forzata
  • Fingerprint linguistico: estratto da 3.361 messaggi personali Telegram + email + Notion + appunti
  • Disclosure a 3 livelli: #AIAssisted (ogni post) + profilo LinkedIn + pagina /ai-transparency
  • Clarity Gate: 9 checkpoint epistemici pre-pubblicazione + memory trail tra sessioni + hard stop (HV < 5/7 = riscrittura)
  • Infrastruttura di verifica: 35+ audit giornalieri, NDI (Natural Dialogue Index) a 3 livelli, evidence collection
Numeri reali

Prima e dopo, senza filtri

Impressioni settimanali
759 (S4)
5.534 (S5, +629%)
Follower
45 (giorno 1)
107 (giorno 35, +138%)
Detection incidents
0 su 160+ interazioni
Revenue da funnel
€0
€19 (prima vendita, Stripe verified)
NDI best day
0.70 (call accettata da lead)
Stack tecnologico

Tecnologie che lavorano, non che complicano

Claude (Anthropic)

Cowork + Code + Skills — orchestratore centrale dei 28 task

Python

Script di automazione, generazione PDF, data processing

Google Cloud Platform

Cloud Run per task schedulati, infrastruttura

Chrome MCP

Interazione diretta con LinkedIn via browser automation

Sanity CMS

Gestione contenuti blog, case study, landing page

Next.js 15 + Vercel

Frontend e hosting del sito giovanniliguori.it

Vuoi esplorare la domanda insieme?

Questo case study documenta un sistema in produzione con 35 giorni di dati verificabili. I file di governance, i log e i report sono disponibili per verifica indipendente. Se il tema ti interessa — governance dell'identità AI, disclosure, post-plagiarismo — parliamone.

Scarica il case study completo (PDF)