L’integrazione dell’intelligenza artificiale nella pratica professionale non si limita alla semplice automazione, ma è destinata a esercitare un’influenza trasformativa sull’ambiente costruito, rimodellando i contesti in cui operiamo: codici giuridici che presto potrebbero essere redatti con l’assistenza di grandi modelli linguistici; strategie urbane distillate attraverso analisi generate dalle macchine per gli urbanisti; e concept architettonici basati su immagini generate dall’intelligenza artificiale e destinate a trasformarsi in strutture tangibili. Come si vede, l’intelligenza artificiale non si limita a produrre, ma interpreta e perfeziona i propri risultati, incorporandoli nelle iterazioni successive. I progetti che generiamo oggi sono quindi il prodotto di set di dati la cui origine è in gran parte opera dell’uomo, ma questi risultati, a loro volta, sono utilizzati per addestrare i modelli futuri, andando a costituire quel set di dati ricorsivi che costituirà la base di informazioni per l’AI. Quali sono le implicazioni quando l’intelligenza artificiale crea e valuta le narrazioni che definiscono i nostri paesaggi urbani, costruendo il futuro attraverso uno scambio autoreferenziale in gran parte opaco rispetto alla supervisione umana?

I set di dati alla base di questi modelli appaiono vasti e generativi, offrendo un’ampia gamma di forme innovative e possibilità concettuali. Tuttavia, questa apparente abbondanza nasconde un limite critico: la loro composizione non è del tutto trasparente né necessariamente esaustiva. Alcune tipologie architettoniche, tradizioni materiali o pratiche regionali potrebbero essere state escluse - per scelta o per svista - prima della loro disponibilità per l’uso da parte dei professionisti. Claude Shannon, matematico dei Bell Labs che ha contribuito alla nascita dell’informatica moderna, immaginava l’informazione come un sistema universale in grado di codificare con precisione tutta la conoscenza. Al contrario, Timnit Gebru, informatico noto per i suoi contributi all’etica dell’AI, dimostra che i set di dati non sono neutri, ma sono curati e modellati sulla base di decisioni che spesso sfuggono al controllo. Il potenziale creativo dell’intelligenza artificiale è quindi condizionato dai confini invisibili dei dati su cui viene addestrata.

Questa tensione non è senza precedenti. Michel Foucault, filosofo e storico francese, ha sostenuto che il potere si esercita non solo attraverso ciò che viene conservato, ma anche attraverso ciò che viene escluso dalla documentazione. A metà del XX secolo, istituzioni come il Bouwcentrum di Rotterdam hanno incarnato l’impegno per una conoscenza accessibile, fornendo ad architetti e progettisti un accesso aperto ai dati sui materiali, sui regolamenti urbanistici e sulle metodologie di pianificazione urbana. Questa trasparenza ha permesso ai professionisti di discernere sia la presenza che l’assenza all’interno del corpus. Oggi, questa apertura è stata in gran parte erosa, soppiantata da set di dati proprietari incorporati in modelli di intelligenza artificiale impossibili da esaminare. Non sono solo le grandi aziende tecnologiche a farlo: la maggior parte delle imprese dispone di enormi quantità di dati, salvati su server, completamente inaccessibili e sottratti al bene comune.

James Bridle, scrittore e artista britannico, definisce questo fenomeno la "nuova era oscura": un’era in cui la complessità tecnologica è tale da rendere i meccanismi di controllo sempre più imperscrutabili. Considerate la natura iterativa dei processi di progettazione contemporanei. Un modello di intelligenza artificiale, addestrato su precedenti architettonici esistenti - ad esempio una struttura elegante e parametrica - genera un’immagine per un progetto successivo. Questo progetto viene archiviato e un modello futuro lo incorpora nella sua formazione, perpetuando lo schema. Se il set di dati iniziale dovesse omettere le architetture vernacolari, gli insediamenti informali o le tradizioni non occidentali, questi elementi potrebbero gradualmente scomparire dal lessico disciplinare. A differenza dei canoni storici curati da studiosi o critici, questo canone emergente è dettato dalle gerarchie del machine learning, ridefinendo sottilmente i confini potenziali del design senza una deliberazione esplicita. Questa memoria selettiva si estende alla conservazione del patrimonio architettonico. Immaginate un distretto storico da sottoporre a tutela. Un sistema di intelligenza artificiale analizza le registrazioni fotografiche e i dati d’archivio, dando la priorità agli elementi ritenuti "significativi" - ad esempio le facciate decorate - e trascurando invece gli elementi meno appariscenti, come gli annessi utilitari, a causa dei pregiudizi insiti nel suo addestramento. Un modello successivo redige un rapporto per il comune, omettendo ulteriormente gli aspetti trascurati. Quando si giunge a una decisione, gli annessi sono esclusi, non per un rifiuto deliberato, ma perché le preferenze nascoste dell’intelligenza artificiale hanno plasmato la narrazione. L’intuizione di Foucault sul potere dell’esclusione trova qui un’eco moderna: ciò che viene ricordato non è determinato dal caso, ma dai parametri di riconoscimento.

Il fenomeno si intensifica man mano che l’intelligenza artificiale dialoga con sé stessa. Un aneddoto recente lo dimostra: uno studente fornisce a ChatGPT gli argomenti base per un’e-mail e un professore usa un’altra istanza di ChatGPT per estrarre gli argomenti base dall’e-mail, uno scambio interamente mediato dalle macchine. Più significativo è il caso di DeepSeek, un modello di intelligenza artificiale che, secondo quanto riferito, non è stato addestrato su fonti testuali primarie, ma su output pre-elaborati da ChatGPT. Invece di accedere a documenti non filtrati, DeepSeek apprende da un livello astratto di interpretazione automatica, simile a una distillazione secondaria. Nella pratica architettonica, tutto questo potrebbe portare a uno scenario in cui un modello genera un progetto, un altro lo riassume o lo modifica e il processo continua all’infinito.

Benjamin Bratton, filosofo e professore all’Università della California, San Diego, sostiene che questi sistemi computazionali costituiscono una forma emergente di governance, che non deriva da una legislazione esplicita ma dall’accumulo di interazioni algoritmiche. Questa interazione è particolarmente evidente nelle applicazioni pratiche. Un architetto impiega l’intelligenza artificiale per disegnare un isolato urbano; un secondo modello interpreta la proposta, evidenziando caratteristiche come i grattacieli o le piazze pubbliche, e produce una sintesi; il modello di un pianificatore modifica quindi il piano - magari aumentando i parcheggi a scapito del verde - sulla base di questa interpretazione. Ogni fase prevede che l’intelligenza artificiale comunichi con le sue controparti, mentre il contributo umano è relegato a un ruolo di supervisione. La visione iniziale di uno spazio verdeggiante e pedonale può trasformarsi in un layout utilitaristico, modificato non intenzionalmente, ma da successive reinterpretazioni mediate dalle macchine.

Queste dinamiche non si limitano ai progetti su larga scala. Considerate un’iniziativa comunale per riprogettare un parco pubblico. Un sistema di intelligenza artificiale raccoglie dati (conteggio dei visitatori, parametri climatici) e propone un layout con panchine e percorsi. Un modello successivo condensa tutto questo in un rapporto per le autorità civiche, omettendo gli alberi da ombra non ritenuti "degni di nota" nel suo set di dati. Il modello di un appaltatore rivede quindi il piano per l’efficienza dei costi, eliminando un parco giochi. Il parco finale - una distesa spoglia con funzionalità minime - assomiglierà molto poco all’intento originale, rimodellato attraverso una serie di scambi dell’intelligenza artificiale, passati inosservati ai suoi supervisori umani.
Le implicazioni investono anche la progettazione sostenibile. Uno strumento di intelligenza artificiale con il compito di ottimizzare le prestazioni energetiche di un edificio potrebbe analizzare i dati sull’isolamento e i modelli climatici, consigliando una facciata a tutto vetro in base alle tendenze prevalenti nel suo set di addestramento.

Un altro modello, che valuta i costi del ciclo di vita, adegua la proposta, privilegiando materiali più economici rispetto all’efficienza a lungo termine, perché i suoi dati privilegiano la spesa iniziale. Il risultato potrebbe compromettere gli obiettivi di sostenibilità, non a causa di intenti errati, ma perché le preferenze nascoste dell’intelligenza artificiale hanno influenzato il risultato. I professionisti, ignari di questi pregiudizi, rischiano di avvallare soluzioni non in linea con gli imperativi ecologici più ampi.

Tuttavia, il potenziale dell’intelligenza artificiale rimane impressionante. I suoi set di dati non sono inerti; sono ricchi di possibilità, dando vita a progetti che sfidano l’immaginazione convenzionale. La sfida non sta nella loro capacità, ma nella nostra incapacità di accertarne la portata. L’esplorazione di un set di dati urbani generato dall’intelligenza artificiale ha rivelato una vasta gamma di configurazioni spaziali, senza tuttavia fornire alcuna indicazione sugli elementi esclusi. La ricerca sugli algoritmi dei motori di ricerca rivela un parallelo: anche in contesti in cui si presume che l’accesso alle informazioni sia garantito, i contenuti sono filtrati in base a criteri poco chiari.

I professionisti, abituati a contesti trasparenti, potrebbero quindi ignorare i confini che delimitano i loro strumenti. Peter Weibel, artista e professore presso l’Università di arti applicate di Vienna fino al 2017 (e successivamente direttore dello ZKM Center for Art and Media di Karlsruhe), ha proposto una "Datatopia", una visione in cui i dati non vengono accumulati ma interrogati e riconfigurati collettivamente. Per gli architetti e i designer, ciò comporta l’esigenza non solo di impiegare l’intelligenza artificiale, ma anche di sondarne le basi. Quali narrazioni sono incorporate nei set di dati che definiscono il nostro ambiente costruito? Quali possibilità rimangono inespresse e chi, o cosa, ne determina la rilevanza?

Poiché l’intelligenza artificiale media sempre più sia la concettualizzazione che la valutazione del design, queste ricerche vanno oltre l’utilità tecnica arrivando a toccare l’epistemologia della conoscenza in un’era guidata dalle macchine. Dobbiamo sostenere uno sforzo comune per svelare questi sistemi, chiedendo la trasparenza come prerequisito per la loro integrazione? O dovremmo adottare una posizione di cauta osservazione, lasciando che questa interazione si evolva mentre ne valutiamo la traiettoria? La domanda rimane: mentre l’intelligenza artificiale dialoga con sé stessa per costruire il nostro mondo, siamo pronti ad affermare il nostro ruolo all’interno di questo dialogo? O dobbiamo rassegnarci a un futuro narrato da meccanismi che non vediamo né comprendiamo appieno?

Images: Cas Esbach