La proprietà privata del pensiero è il prompt

Per la prima volta non discutiamo solo dei contenuti prodotti dalle macchine. Discutiamo della proprietà privata delle forme attraverso cui milioni di persone stanno imparando a pensare.

Siamo concentrati su cosa producono queste macchine e pensiamo meno a chi possiede la grammatica con cui ti insegnano a chiederlo.
C’è una narrazione che circola con la fiducia che si riserva alle verità ovvie. Dice che il potere dell’intelligenza artificiale è nelle tue mani. Che basta imparare a fare le domande giuste, l’ingegneria del prompt, e che la differenza tra chi guiderà il futuro e chi lo subirà dipende dalla qualità delle istruzioni che saprai digitare per avere le risposte migliori dagli LLM. È seducente perché lusinga l’individuo e scarica su di noi la responsabilità del risultato. Se la macchina non ti capisce, il problema sei tu. Se la risposta è mediocre, il tuo prompt era mediocre. Forza, riprova, ottimizzati.

Questa è la storia piccola; è progettata per impedirti di vedere quella grande. La storia grande riguarda lo spostamento silenzioso dal pensiero esplorativo al pensiero esecutivo. L’ingegnere, il medico, il giudice hanno sempre pensato per procedure, non c’è un pericolo di sostituzione. A me pare che ci sia il rischio che il pensiero esplorativo diventi facoltativo e socialmente svantaggioso. Da subito inefficiente e poi invisibile; non perché qualcuno lo vieti ma perché il sistema premia l’altro e tu hai una tempo finito.
Nessuno ti obbliga, in senso stretto ma il tuo capo valuta quanto velocemente produci output accettabili. Il cliente non aspetta che tu abbia un’intuizione e la tua curiosità non aspetta. E così la piattaforma ti penalizza se non converti. La pressione non è interiore, è strutturale e si appoggia su uno strumento già ottimizzato nella stessa direzione. È questa sovrapposizione che produce l’effetto; non la cattiveria del sistema ma la sua coerenza.
Un buon prompt può costringerti a chiarire un’idea confusa o a mettere alla prova un’ipotesi fragile. Il problema nasce quando questa diventa l’unica forma di pensiero considerata seria: ciò che è già chiaro, ordinato e formulabile. Quando l’intuizione opaca, la domanda posta male, il pensiero ancora informe, il materiale da cui sono nate la filosofia, l’arte e la scienza, quando il presente le scambiava ancora per rumore, iniziano ad apparire difettosi. La macchina non cancella una purezza perduta, che non è mai esistita. Aggiunge però una nuova mediazione: privata, progettata da altri e ottimizzata per ciò che viene percepito come utile o accettabile su larga scala.
Un modello linguistico è un agente statistico orientato, addestrato su miliardi di interazioni e ottimizzato per convergere verso ciò che la maggioranza degli utenti ha trovato accettabile. Non ti dice di no ma fa qualcosa di più efficace: ti offre la risposta più probabile prima che tu abbia finito di cercare. Per chi accetta la prima risposta, è una gravitazione costante verso il centro. Per chi sa forzare i parametri, può diventare amplificazione della divergenza. La differenza non è nel sistema, è nel tempo, nella consapevolezza, nella resistenza alla pressione del risultato immediato. Tre cose che l’ambiente scoraggia sistematicamente.
Il prompt non elimina l’attrito cognitivo, ma lo sposta e lo privatizza. Formulare una buona domanda è difficile, un lavoro di tentativi, inciampi e chiarimenti, frustrante, è esattamente il tipo di difficoltà che produce apprendimento profondo. Ma non è importante l’assenza di frizione, è importante chi controlla l’ostacolo. Quando la difficoltà è progettata da altri, ottimizzata per KPI aziendali, e presentata come interfaccia neutra, la fatica che fai non ti appartiene. Lavori dentro un campo che non hai scelto e che non puoi ispezionare.
Le grammatiche cognitive precedenti, scrittura, stampa e broadcasting non erano libere. L’alfabeto era copiabile, ma per secoli saper leggere era monopolio di chiese e stati. La stampa era libera in teoria, carissima in pratica. La differenza oggi non è che le grammatiche siano diventate proprietarie, lo sono sempre state. Ma ora sono diventate tecnicamente non contendibili. Puoi contestare politicamente una legge, come puoi tradurre un testo; ma non puoi ispezionare i parametri che decidono quali domande scorrono meglio dentro un modello closed-source, perché non hai accesso. L’opacità tecnica aggiunge un livello di chiusura che non esisteva prima.
Esistono modelli open source che puoi eseguire localmente, ispezionare, riaddestrare. Non sono dominanti, ma la loro esistenza trasforma la critica: non è una battaglia perduta in partenza, è una battaglia aperta su chi controlla l’egemonia di fatto. Ci sta che una grammatica sia chiusa e l’unica possibile, ma non ci sta che sia quella socialmente normale, quella che il mercato del lavoro presuppone tu stia usando, quella rispetto a cui ogni alternativa richiede uno sforzo aggiuntivo che la maggioranza non farà.
Questo è il meccanismo, e non la proprietà ontologica del pensiero. L’egemonia di fatto della grammatica dominante.
Il confronto più utile non è con il colonialismo linguistico coercitivo, quello puniva fisicamente chi parlava la propria lingua. È con qualcosa di più sottile: la progressiva convinzione che la tua lingua non abbia parole per le cose importanti. Che il tuo modo di formulare sia approssimativo. Che il formato della macchina sia più preciso del tuo pensiero. La cosa furba è che nessuno te lo impone, ma diventa semplicemente ovvio.
Quando una tecnologia rende il pensiero esplorativo facoltativo e socialmente svantaggioso, cosi non è più una questione tecnologica ma costituzionale. E qui sta il senso che questo testo non può risolvere ma solo nominare: la resistenza è possibile, ma costosa. In un sistema sano, il pensiero esplorativo non dovrebbe essere un atto di resistenza individuale. Dovrebbe essere una condizione strutturale garantita e il fatto che oggi lo stiamo discutendo come tecnica di sopravvivenza cognitiva è già, di per sé, la diagnosi. Molti temono che l’intelligenza artificiale diventi troppo simile all’uomo. Il pericolo più realistico è l’opposto: che l’uomo, per comodità e per efficienza, smetta di fare le domande sbagliate. Quelle che non hanno un output atteso. Quelle che la macchina non sa dove mettere; quelle da cui è venuto quasi tutto ciò che vale.

Immagine: Jaume Plensa, Behind the Walls (2018). Un volto di ragazza monumentale si copre gli occhi con le mani, in un gesto sospeso tra protezione e interdizione. Una visione mediata: guardiamo il mondo attraverso filtri che promettono accesso mentre decidono cosa resta invisibile