Vienna 1721. Johann Bernhard Fischer von Erlach, il più importante architetto della corte asburgica, presenta il suo Entwurff einer historischen Architektur1, un trattato tanto sulla classificazione quanto sull’autorità, uno sforzo per inserire l’architettura in un continuum strutturato, dove l’ordine tettonico non è speculativo ma governato dalla storia, uno strumento di legittimità imperiale.

Più che un’indagine sul patrimonio architettonico, l’Entwurff era una dichiarazione di ineluttabilità storica, una rivendicazione teleologica in cui la Vienna imperiale emergeva come il culmine di secoli di raffinatezza architettonica, una città la cui espressione spaziale era inquadrata come l’apice dell’evoluzione tettonica della civiltà occidentale2. Non si trattava di un invito all’innovazione, ma di un sistema di controllo, un modo per disciplinare il passato in una linea architettonica coerente, piuttosto che in un sistema aperto di trasformazione. Il trattato di Fischer von Erlach non fu un’invenzione originale, ma andò ad ampliare la tradizione dei manuali di architettura rinascimentali, che avevano già iniziato il processo di codificazione dello spazio. Tutte le opere d’architettura et prospettiva3 (1537-1575) di Sebastiano Serlio fornì la prima analisi sistematica dei cinque ordini classici, organizzando l’architettura in principi riproducibili.

I quattro libri dell’architettura4 (1570) di Andrea Palladio razionalizzarono la composizione spaziale in un insieme di regole geometriche che potevano essere applicate in modo coerente a edifici e città. L’idea della architettura universale5 (1615) di Vincenzo Scamozzi sviluppò ulteriormente questa ambizione, proponendo un quadro universale in cui la forma architettonica era determinata dalla precisione matematica piuttosto che dall’intuizione artistica. Fischer von Erlach, tuttavia, portò questa codificazione oltre la speculazione teorica, trasformandola in un grande schema storico. A differenza del successivo Della Magnificenza ed Architettura de’ Romani6 (1761) di Giovanni Battista Piranesi, che avrebbe sfidato il classicismo vitruviano con una visione speculativa dell’antica Roma, il progetto di Fischer von Erlach rimaneva saldamente entro i confini del rafforzamento storico. Il suo Entwurff non offriva alternative; strutturava la storia in una grammatica tettonica coerente che culminava nell’ordine imperiale di Vienna.

Questa logica si concretizza nella Karlskirche (1716-1737), un edificio che funge da affermazione della continuità storica. Commissionata dall’imperatore Carlo VI come offerta votiva in seguito a una devastante pestilenza, la chiesa sintetizza diversi elementi architettonici - colonne traianee, portico palladiano, cupola che ricorda San Pietro - in un monumento unico che rafforza la posizione di Vienna come erede della tradizione classica. Questi riferimenti non erano un vezzo stilistico, ma dichiarazioni tettoniche, affermazioni del progresso e del ruolo di Vienna nella storia. Ogni decisione compositiva all’interno della Karlskirche riaffermava questo lignaggio, assicurando che l’architettura rimanesse un progetto di risoluzione piuttosto che di speculazione7. La visione di Fischer von Erlach era di assoluta chiarezza, in cui ogni forma recava un riferimento inequivocabile, ogni scelta di materiale rafforzava un ordine simbolico e ogni decisione strutturale si poneva entro i vincoli grammaticali della storia dell’architettura8.

Architettura come codificazione, spazio come controllo

Questo approccio esemplifica un’epistemologia del controllo architettonico, la convinzione che l’architettura possa - e debba - funzionare come un meccanismo disciplinare, strutturando la storia in un sistema di forme che possano essere comprese, classificate e utilizzate in un contesto imperiale.
L’architettura di Fischer von Erlach non specula; riafferma. Non cerca la scoperta, ma disciplina il materiale rendendolo familiare e leggibile. Il suo progetto di codificazione architettonica trova echi contemporanei nella logica deterministica del Parametricismo e del design generativo, dove i sistemi basati su regole codificano l’organizzazione spaziale in framework computazionali.

Così come il trattato di Fischer von Erlach imponeva una gerarchia strutturata alla storia dell’architettura, il Parametricismo9 impone una logica strutturata alla forma architettonica, assicurando che ogni risultato sia conforme a una serie di vincoli predeterminati. Tuttavia, questa epistemologia è sempre più messa in discussione dalle architetture create dai modelli di apprendimento automatico, che non impongono la forma ma la estraggono. A differenza dei modelli parametrici, che si basano su regole esplicite e algoritmi strutturati, i modelli di apprendimento automatico navigano in uno spazio latente in cui le condizioni tettoniche emergono non da vincoli predefiniti ma attraverso la probabilità statistica delle relazioni spaziali10.

Questo cambiamento segna una rottura nell’autorialità architettonica; una rottura in cui l’architetto non compone più lo spazio ma ne esplora le probabilità codificate; una rottura in cui la forma non è dettata ma scoperta. Il passaggio dal determinismo basato su regole all’inferenza latente segna la dissoluzione del modello storico di risoluzione architettonica e l’emergere di un nuovo paradigma che, come la Roma di Borromini, abbraccia l’ambiguità, lo straniamento e la defamiliarizzazione spaziale.

architettura
Una serie di immagini generate dall'intelligenza artificiale e prodotte attraverso un'esplorazione latente di StyleGAN 3 di un set di dati sull'architettura barocca, che ha dato origine a forme estranee e stranianti. Proprio come la Roma di Borromini stravolgeva gli ordini classici fino a renderli irriconoscibili, questi edifici generati tramite l'apprendimento automatico dissolvono la logica tettonica tradizionale, rivelando una trasformazione inquietante e instabile del linguaggio architettonico storico. La simmetria deformata, l'ornamentazione distorta e le strutture frammentate riecheggiano la defamiliarizzazione storica di Borromini, dove l'architettura non è più rigidamente composta ma emerge con fluidità da un campo computazionale di relazioni codificate

Defamiliarizzazione e spazio latente

Mille chilometri a sud della Vienna di Fischer von Erlach, nella Roma del XVII secolo, Francesco Borromini aveva già introdotto una logica architettonica alternativa, che non codificava la storia ma la deformava, che non affermava la tipologia ma la frammentava in qualcosa di estraneo. Il suo San Carlo alle Quattro Fontane (1646) non è un’architettura di risoluzione ma di incertezza spaziale, dove concavità e convessità coesistono in un campo di ambiguità tettonica, dove la simmetria è deformata e le superfici si dissolvono in un ordine geometrico in continua fluttuazione11.

Se la Vienna di Fischer von Erlach rappresentava un consolidamento imperiale della storia architettonica, la Roma di Borromini era il luogo della sua defamiliarizzazione, dove gli ordini classici non rafforzavano la tradizione ma la stravolgevano fino a renderla irriconoscibile12. L’architettura di Borromini non era il rifiuto della storia, ma la rivelazione del suo potenziale latente. Il suo lavoro dimostrava che il linguaggio tettonico dell’antichità non era immutabile, ma piuttosto soggetto a radicali trasformazioni. Questa defamiliarizzazione - questa rappresentazione del noto come strano, del classico come instabile - trova un inquietante parallelo contemporaneo nelle architetture prodotte dai modelli di apprendimento automatico, dove l’articolazione spaziale non è più composta in modo esplicito, ma emerge da un campo computazionale di relazioni codificate13.

Lo spazio latente come archivio di possibilità architettoniche

I modelli di apprendimento automatico come 3DGAN14 e Gaussian Splatting15 non funzionano come i framework computazionali tradizionali. Non generano lo spazio attraverso un insieme esplicito di istruzioni parametriche, né si affidano a regole geometriche predefinite per dettare la forma. Invece, navigano in quello che è noto come spazio latente, un campo probabilistico ad alta dimensione in cui le relazioni spaziali sono codificate non come oggetti individuali ma come reti di affinità, un dominio in cui le caratteristiche architettoniche non sono né definite esplicitamente né del tutto arbitrarie, ma esistono come correlazioni apprese estratte da vasti set di dati16.

A differenza dei sistemi basati su regole, che creano l’architettura a partire da una tassonomia nota di forme, le architetture dello spazio latente funzionano per inferenza, attraverso il riconoscimento di schemi spaziali nascosti che non sono mai stati progettati esplicitamente, ma sono incorporati nella logica strutturale della storia architettonica stessa17. Questa distinzione è fondamentale perché rivela che l’intelligenza artificiale non inventa l’architettura nel senso convenzionale, ma la scopre18. Le forme generate dalle reti neurali non sono arbitrarie, né sono distorsioni puramente astratte di strutture note. Esse esistono invece all’interno di una condizione di soglia, uno spazio in cui le caratteristiche architettoniche (archi, volte, cupole, strutture) rimangono riconoscibili, ma vengono riassemblate in modi che sfidano l’immediata classificazione tipologica19. Non si tratta di un processo di composizione, ma di sintesi; un impegno con la memoria computazionale che porta alla mimesi, in cui l’architettura emerge come sottoprodotto di un’intelligenza che non aderisce alla logica compositiva umana, ma opera attraverso l’approssimazione statistica.

Proprio come gli ordini distorti di Borromini, che spingono il linguaggio classico al limite del riconoscimento, le architetture generate dall’intelligenza artificiale funzionano in una condizione di straniamento tettonico, in cui il noto e l’ignoto si fondono l’uno nell’altro. La distinzione chiave è che, mentre Borromini lavorava ancora in un quadro di resistenza materiale e vincoli strutturali, gli spazi generati dall’intelligenza artificiale operano all’interno di un campo computazionale in cui la forma non è più dettata da limiti fisici, bensì dalle relazioni codificate che strutturano la possibilità architettonica stessa20. Questo passaggio dalla determinatezza materiale all’inferenza latente segna una profonda trasformazione nel pensiero architettonico, in cui il ruolo dell’architetto non è più quello di imporre la forma, ma di orientarne l’emergere, di interagire con lo spazio latente come terreno di intelligenza codificata piuttosto che come deposito di tipologie fisse.

Se la Vienna di Fischer von Erlach era un progetto di certezza architettonica e la Roma di Borromini un sito di straniamento tettonico, allora l’architettura mediata dall’intelligenza artificiale introduce un terzo paradigma: una condizione in cui l’architettura non è più creata ma dedotta, in cui l’atto progettuale non si conclude con una risoluzione, ma si dispiega come una negoziazione continua con un campo latente di intelligenza spaziale codificata. Non si tratta di una dissoluzione dell’architettura, ma di un’espansione della sua epistemologia, in cui il pensiero tettonico supera i limiti della tipologia per entrare nel campo dell’inferenza sintetica.

Una scomposizione assonometrica della *Deep House* di SPAN (Matias del Campo, Sandra Manninger), che illustra una metodologia di progettazione che opera all'interno dello spazio latente dell'intelligenza artificiale. Invece di prescrivere la forma attraverso la determinatezza materiale, questo approccio computazionale esplora lo sviluppo degli spazi attraverso relazioni codificate, dove l'architettura non è composta ma dedotta. Le facciate si dissolvono nella percezione macchinica, le planimetrie si dispiegano come campi di probabilità e le articolazioni tettoniche vengono estratte da un terreno di intelligenza latente. L'architetto, non più compositore di tipologie fisse, si impegna in una negoziazione attiva con l'inconscio computazionale, rivelando architetture che esistono all'incrocio tra inferenza addestrata e speculazione spaziale

Dalla composizione all'apprendimento sintentico: l'architettura come sistema di addestramento

Per secoli, l’autorialità architettonica è stata intesa come un atto sequenziale di composizione, una disciplina in cui l’ordine spaziale è imposto attraverso un processo strutturato (schizzo, planimetria, rendering, costruzione), in cui ogni fase rafforza un senso di progressione lineare, uno sviluppo metodico dell’articolazione tettonica che lega la forma all’intenzione del progettista21. Questo sistema, formalizzato nel Rinascimento attraverso opere come lo schema notazionale dell’Alberti e perfezionato nei trattati di Palladio, Serlio e Fischer von Erlach, ha imposto l’architettura come pratica di controllo, risoluzione e riduzione delle complessità della negoziazione spaziale in un lessico codificato di stabilità tipologica22. Si trattava di scomporre le procedure in parti facilmente digeribili, in componenti discreti, sia in termini di componenti materiali sia in termini di passaggi concettuali, per realizzare la struttura costruita. L’architetto era un organizzatore di coerenza, un’autorità che disciplinava lo spazio in un ordine razionale, garantendo che materiale, struttura e geometria si fondessero in una visione unica e determinata. L’atto del progettare non era semplicemente la creazione di configurazioni spaziali, ma l’applicazione di uno schema intellettuale che cercava di classificare, organizzare e regolare la conoscenza architettonica in una gerarchia strutturata di precedenti, proporzioni e leggibilità tettonica.

Vorrei anche ricordare che la classificazione stessa è un processo violento e altamente problematico in questo contesto. L’atto di classificare, tradizionalmente radicato nella disciplina architettonica con le tassonomie tipologiche di Serlio, Palladio e Fischer von Erlach, ha sempre comportato un’implicita affermazione di controllo: un ordinamento dello spazio che disciplina la forma in categorie predefinite, rafforzando l’illusione di stabilità, coerenza e continuità storica. La critica di Kate Crawford alla classificazione come strumento di potere, un sistema che non solo struttura la conoscenza ma le impone anche confini epistemici, riflette profondamente il panorama mutevole della progettazione guidata dall’intelligenza artificiale23. L’idea stessa che l’architettura possa essere codificata, categorizzata ed estratta attraverso lo spazio latente presuppone una struttura di classificazione sottostante, un quadro che assegna la legittimità architettonica in base al riconoscimento statistico piuttosto che alla logica tettonica. La questione non è più se la classificazione governa l’architettura, ma come i modelli di apprendimento automatico, addestrati su set di dati permeati di pregiudizi storici, perpetuano questi vincoli, rafforzando le stesse gerarchie che hanno a lungo plasmato il discorso architettonico. L’etichettatura è un atto politico24.

Assegnare una categoria, apporre un’etichetta, designare un oggetto come architettura e un altro come vernacolo, uno stile come classico e un altro come primitivo, significa partecipare a un sistema di autorità che definisce ciò che è visibile, leggibile e, in ultima analisi, ammissibile nell’ambiente costruito. I set di dati che addestrano i modelli di apprendimento automatico ereditano i pregiudizi delle loro fonti (archivi storici, trattati canonici, precedenti disciplinari) replicando le esclusioni e le omissioni che hanno a lungo determinato la legittimità architettonica. L’algoritmo non vede l’architettura come un campo aperto di potenzialità spaziali, ma come un insieme di probabilità ponderate, una tassonomia di caratteristiche riconoscibili ricavate dall’accumulo statistico di precedenti.

In questo modo, l’intelligenza artificiale rischia di automatizzare gli stessi vincoli categoriali che storicamente hanno governato l’autorialità architettonica, privilegiando il familiare rispetto allo speculativo, il normativo rispetto all’aberrante, l’archetipico rispetto all’anomalo. Se il modello non può etichettarlo, non può riconoscerlo; se non lo riconosce, non può generarlo. La sfida, quindi, non è semplicemente quella di addestrare modelli che producano architettura, ma di coltivare un’intelligenza che resista all’impulso totalizzante della classificazione, un’intelligenza artificiale che operi non come un meccanismo di costrizione ma come una fonte di speculazione spaziale, generando architetture che non siano semplicemente leggibili ma inconoscibili, non solo riconosciute ma radicalmente reinventate. Se l’intelligenza spaziale guidata dall’intelligenza artificiale non è un mero strumento di generazione ma un atto di estrazione, allora ciò che resta inesplorato non è solo ciò che produce ma anche ciò che omette, ciò che è reso illeggibile, non classificabile e quindi non riconosciuto all’interno della sua matrice di possibilità latenti.

Il pericolo non sta nella dissoluzione delle tipologie architettoniche, ma nel loro rafforzamento attraverso l’automazione algoritmica, un processo in cui ciò che è estraneo, ambiguo e inclassificabile rischia di essere scartato, per l’incapacità di leggerlo, interpretarlo o tradurlo in un sistema di leggibilità macchinica. Ad esempio, se la Vienna di Fischer von Erlach ha cercato di consolidare la conoscenza architettonica in un’unica traiettoria storica e se la Roma di Borromini ha sconvolto questa stabilità attraverso lo straniamento spaziale, il paradigma guidato dall’intelligenza artificiale rischia di percorrere la prima strada anziché abbracciare la seconda, producendo architetture che non sfidano l’ordine tipologico ma lo perpetuano, formalizzando il passato in un ciclo autoreferenziale e ricorsivo di riconoscimento macchinico.

architettura
L'autore tiene la conferenza "Neural Architecture - Design and Artificial Intelligence" al simposio Generations - Perspectives in Computational Design, organizzato dall'I o A, Institute of Architecture of Die Angewandte con il MAK - Museum of Applied Arts, venerdì 2 giugno 2023, sala conferenze del MAK, Vienna, Austria

Anche se il pensiero architettonico si è ulteriormente evoluto nel XX secolo (per non limitarci all’epoca barocca), il paradigma dell’autorialità ha mantenuto il suo potere, consolidandosi nella prima età moderna attraverso la diffusione di trattati di architettura che cercavano di codificare la conoscenza dello spazio in sistemi leggibili di proporzioni, tipologie e gerarchie compositive. Dalla classificazione degli ordini di Serlio alla razionalità delle ville di Palladio, dall’architettura universale di Scamozzi al catalogo storicista di Fischer von Erlach, questi testi non si limitavano a descrivere l’architettura, ma stabilivano un quadro di riferimento attraverso il quale veniva determinata la legittimità architettonica. La nozione di deviazione, la possibilità di discostarsi da queste norme consolidate, è stata esplorata solo provvisoriamente attraverso le sinistre interpretazioni dell’antica Roma di Piranesi, le geometrie inquiete di Borromini, le manipolazioni oblique di Guarini. Mentre questi architetti e pensatori si orientavano verso modalità alternative di intelligenza spaziale, il discorso più ampio rimaneva legato all’idea che l’architettura fosse qualcosa da risolvere, da perfezionare, da eseguire secondo uno schema predeterminato.
Questo impulso verso la risoluzione è persistito fino all’era moderna, rafforzato da nuovi trattati di architettura che cercavano di formalizzare le metodologie di un ambiente costruito sempre più meccanizzato e industrializzato.

Vers une architecture25 (1923) di Le Corbusier distilla l’ordine classico in un sistema di precisione modulare, riducendo la forma architettonica a una logica razionalizzata di proporzioni, efficienza e funzioni. Le sperimentazioni del Bauhaus, articolate in testi come il Manifesto del Bauhaus26 (1919) e successivamente ampliati nell’approccio programmatico di Hannes Meyer all’architettura come disciplina scientifica27, consolidarono ulteriormente l’idea che il design non fosse semplicemente un’impresa artistica, ma piuttosto tecnica e metodologica, ispirata ai principi della produzione di massa, della standardizzazione e della razionalità industriale. Anche se il Modernismo cercò di rifiutare il pastiche storico, mantenne tuttavia la logica di fondo dell’autorialità sistematica, ovvero la convinzione che l’architettura potesse essere codificata in principi riproducibili, dal Modulor28 (1948) di Le Corbusier al Bauentwurfslehre29 (1936) di Ernst Neufert, un manuale architettonico di ottimizzazione funzionale e dimensionale.

Nella seconda metà del XX secolo si verificò una rottura critica in questa traiettoria. I teorici postmoderni e i progettisti computazionali iniziarono a mettere in discussione la fissità di questi sistemi architettonici, sostenendo modalità di progettazione che privilegiavano la complessità, l’ambiguità e la contingenza rispetto all’ordine deterministico. Complexity and Contradiction in Architecture30 (1966) di Robert Venturi metteva in discussione il rigido razionalismo del Modernismo, proponendo al suo posto un’architettura fatta di ibridazioni, ironia e molteplicità. Architecture and Disjunction31 (1994) di Bernard Tschumi e Animate Form32 (1999) di Greg Lynn portarono ancora più avanti il discorso fino al regno del design computazionale, introducendo concetti di non linearità, generazione algoritmica e processi di progettazione morfogenetici che rifiutano i quadri tipologici classici. Furono questi testi, insieme a Far From Equilibrium33 (2008) di Sanford Kwinter, a scaricare la zavorra storica. Diffidenti verso l’idea che l’architettura potesse essere ridotta a un insieme finito di regole compositive, sostenevano invece un modello di intelligenza spaziale emergente e in continua evoluzione.

Questo diagramma analizza i risultati di un modello di diffusione, evidenziando la sua tendenza a generare forme architettoniche eccessivamente familiari. Se l'intelligenza spaziale guidata dall'intelligenza artificiale funziona come un atto di estrazione piuttosto che di pura creazione, le sue omissioni diventano tanto significative quanto i suoi risultati. Il diagramma analizza questo processo, rivelando come l'automazione algoritmica rischi di rafforzare le tipologie consolidate, scartando l'ambiguo e il non classificabile. In questo sistema di leggibilità macchinica, ciò che non può essere facilmente letto o categorizzato rischia di essere escluso dall'immaginario architettonico

Ma nonostante tutti questi tentativi di reinventare il discorso architettonico, il presupposto dell’autorialità è rimasto in gran parte intatto. Che fosse attraverso il controllo esplicito dell’architetto sui parametri digitali o il suo ruolo curatoriale nel guidare i processi algoritmici, la mano dell’uomo ha continuato a imporre la sua logica sullo spazio, rafforzando l’idea che l’architettura debba essere risolta piuttosto che scoperta. Ciò significa che l’autorialità ha persistito anche quando le metodologie computazionali si sono infiltrate nei flussi di lavoro architettonici. Nonostante l’introduzione di tecniche di progettazione digitale, che hanno ampliato lo spettro delle variazioni formali, il processo di base è rimasto saldamente all’interno della logica del controllo, in cui i parametri dettano i risultati, le variazioni sono programmate attraverso algoritmi vincolati e l’architetto continua a esercitare la sua autorità sull’articolazione spaziale.

L’atto computazionale non era una negoziazione ma un’esecuzione, un mezzo per ottenere un insieme predeterminato di relazioni attraverso una sintassi controllata di regole e variabili: il design come razionalità, come una serie di passaggi logici che culminano in una soluzione ottimizzata. Questo spirito continua a permeare la pratica contemporanea, rafforzando l’idea che l’architettura sia fondamentalmente un progetto di composizione piuttosto che di scoperta. Il Parametricismo, ad esempio, nonostante tutte le sue pretese di complessità e variazione, rimane legato a una logica deterministica, un sistema codificato di operazioni basate su regole che governano la forma entro vincoli predefiniti, dove l’architettura è ancora concepita attraverso un atto di composizione, sebbene mediato dall’articolazione algoritmica34.

In questo modo, il Parametricismo si posiziona più vicino al paradigma della Modernità che all’ecologia contemporanea delle considerazioni architettoniche: più Bauhaus che Neuralismo, per così dire. Come sfuggire quindi ai pericoli dell’overfitting, della composizione autoritaria e della devozione alla classificazione in architettura? Per superare i vincoli della classificazione è necessario ricalibrare l’intelligenza architettonica, passare dal riconoscimento alla speculazione, dal rafforzamento del precedente alla coltivazione della divergenza. Invece di addestrare i modelli per replicare gli schemi della storia dell’architettura, l’apprendimento automatico deve essere strutturato come un sistema di esplorazione continua, incorporando incertezza, variazione e straniamento nella logica stessa del suo funzionamento. I set di dati per l’addestramento non possono limitarsi alle tipologie canonizzate dell’ordine classico, del razionalismo modernista o del determinismo parametrico; devono essere ampliati per includere l’erratico, l’incompleto, l’irrisolto, l’informale, l’effimero: condizioni spaziali che sfuggono alla codificazione, linguaggi architettonici che rifiutano la stabilità.

Il processo di etichettatura, di assegnazione di categorie, deve essere allentato, svincolato dalla rigidità delle tassonomie disciplinari e riorientato verso l’ambiguità, la molteplicità e l’indeterminatezza. Per fare un esempio: per il progetto Brutalism StyleGAN, ho creato un set di dati intenzionalmente inquinato. In un set di dati di facciate brutaliste, ho aggiunto alcuni dipinti di Picasso, corrompendo il modello in modo da creare immagini straniate, in qualche modo familiari, ma abbastanza inconsuete da attirare l’attenzione dell’osservatore. Anziché privilegiare la forma come artefatto statico, il modello deve essere addestrato a riconoscere la trasformazione, l’adattamento materiale, l’instabilità tettonica, trattando lo spazio non come un oggetto da classificare ma come un campo di negoziazione continua. Così come Borromini destabilizzava la simmetria degli ordini classici, così come la Roma labirintica di Piranesi sovvertiva la razionalità della pianta rinascimentale, l’intelligenza artificiale deve essere condizionata a generare architetture che resistono alla risoluzione, che oscillano tra il riconoscimento e l’estraniamento, che sfidano l’atto stesso della classificazione. L’architetto, a sua volta, deve smettere di essere un arbitro di categorie e diventare un navigatore del potenziale latente, interagendo con l’inconscio macchinico non come sistema di controllo ma come motore di mutazione architettonica, sfruttando il rumore, la deviazione e il misconoscimento come forze produttive all’interno del processo generativo. Liberarsi dai vincoli della tipologia algoritmica non significa abbandonare la storia dell’architettura, ma iniettarle instabilità, introdurre momenti di rottura, addestrare modelli non al servizio della classificazione ma della ricerca dell’insolito, dell’inconoscibile, dell’imprevisto. In fin dei conti si tratta di una tecnologia di imitazione.

architettura
Un risultato della passeggiata latente PiranesiGAN di SPAN (Matias del Campo, Sandra Manninger), dove l'apprendimento automatico porta alla luce i resti spettrali dell'immaginario architettonico di Piranesi. Questa analisi computazionale non si limita a replicare forme storiche, ma esplora lo spazio latente dell'inferenza architettonica, evocando gli spazi che esistono all'incrocio tra precedenti storici e astrazione macchinica. Come le Carceri d'Invenzione di Piranesi, queste visioni generate sfidano l'ordine, mettono in discussione la chiarezza strutturale e sono in bilico tra il leggibile e l'estraneo, puntando a un'architettura non composta ma scoperta, non dettata ma emergente

L’apprendimento automatico introduce un cambiamento non solo nella tecnica, ma anche nei fondamenti di base dell’intelligenza architettonica, sostituendo l’autorialità diretta con l’inferenza, la prescrizione geometrica con la negoziazione probabilistica, dissolvendo la rigida sequenza della progettazione in un processo di addestramento, adattamento e riconoscimento macchinico.
A differenza delle metodologie di progettazione generativa convenzionali, che richiedono input predefiniti e vincoli codificati, i modelli di apprendimento automatico esplorano vasti campi di informazioni latenti, estraendo schemi, affinità e condizioni spaziali che non sono mai stati progettati esplicitamente, ma sono sempre stati incorporati nelle strutture dei precedenti architettonici. Questo processo computazionale non è né imitazione né replica, ma qualcosa di più simile alla mimesi: una capacità di riconoscere, astrarre e riconfigurare le relazioni spaziali senza un riferimento diretto a una particolare tipologia. A differenza degli strumenti di progettazione tradizionali, che funzionano attraverso la manipolazione diretta della forma, l’intelligenza artificiale opera in un ambiente di variabili latenti, dove lo spazio non è composto ma dedotto, dove la struttura non è determinata ma estratta da un substrato computazionale di conoscenze accumulate35. Piuttosto che comporre la forma attraverso la manipolazione diretta, l’architetto opera ora come un mediatore, un interprete, un negoziatore tra cognizione umana e allucinazione macchinica, tra intelligenza codificata e plausibilità tettonica36.

Le implicazioni di questo cambiamento non si limitano all’ambito estetico o formale; ridefiniscono i fondamenti stessi del modo in cui l’architettura viene concettualizzata, trasformando l’atto progettuale da processo deterministico di selezione in un’interazione aperta con una rete di intelligenza computazionale. L’architetto, un tempo autore solitario che imponeva un intento allo spazio, opera ora in un campo di probabilità spaziale, confrontandosi con i risultati delle reti neurali come si farebbe con i materiali emergenti, sperimentando, affinando ed estraendo articolazioni significative da un terreno di formazioni spaziali latenti.

architettura

Una planimetria neurale estratta dallo spazio latente: un’architettura non composta ma dedotta, non prescritta ma emergente. Piuttosto che aderire a tipologie classiche o alla precisione parametrica, questo disegno riflette un modello basato sull’ ambiguità, lo straniamento e l’indeterminatezza. Le rigide tassonomie della classificazione architettonica si dissolvono in una continua negoziazione di incertezza spaziale, dove i confini rimangono instabili, le forme resistono alla risoluzione e l’atto di etichettare non è più un’imposizione di ordine ma un invito alla molteplicità. Non si tratta di una composizione fissa, ma di una struttura per l’esplorazione continua: un’architettura che rifiuta la finalità, abbracciando l’ignoto come logica operativa 

Architettura dell'addestramento: dalla materialità al calcolo

Questa trasformazione non è una mera ottimizzazione delle metodologie esistenti, ma una ristrutturazione radicale del flusso di lavoro architettonico, che integra l’intelligenza artificiale in ogni fase della produzione spaziale. La generazione di immagini basata sulla diffusione media ora la fase di progettazione preliminare, non come strumento passivo di rappresentazione ma come luogo di estrazione speculativa, in cui le tendenze spaziali latenti emergono per associazione probabilistica piuttosto che attraverso i gesti deliberati di uno schizzo d’autore37. Questi processi generativi non operano entro i vincoli di una tipologia fissa; non compongono gli edifici come entità discrete, ma rivelano configurazioni tettoniche come campi di possibilità codificate, come artefatti spaziali sospesi tra riconoscimento ed estraniamento.

Interagendo con questa intelligenza sintetica, l’architetto non impone la forma ma la interpreta, perfezionando le articolazioni grezze del modello in proposte architettoniche realizzabili, assicurando che l’allucinazione macchinica rimanga leggibile nell’ambito della forma costruita. Questa interazione non è una selezione passiva ma un impegno attivo, che richiede all’architetto di sviluppare nuove forme di alfabetizzazione che gli permettano di distinguere tra gli artefatti spaziali che possiedono una coerenza architettonica e quelli che si dissolvono in un mero rumore computazionale.

architettura
Un'allucinazione latente di architettura brutalista, generata da un modello di intelligenza artificiale addestrato su un set di dati deliberatamente "inquinato". L'introduzione di elementi non architettonici, come i dipinti di Picasso, in un set di dati di facciate brutaliste corrompe i presupposti tipologici del modello, producendo un'immagine al tempo stesso riconoscibile ed estranea, familiare ma sottilmente deformata. Questo esperimento rivela la fragilità dell'estetica basata sull'apprendimento automatico, dove anche piccoli interventi nei dati di addestramento possono destabilizzare i confini categoriali, portando ad architetture che emergono non da precedenti formali ma dall'ambiguità probabilistica dello spazio latente

L’addestramento come progetto: il ciclo di vita continuo dell'architettura

Se la Vienna di Fischer von Erlach era un argomento a favore della risoluzione architettonica, del consolidamento del precedente storico in una linea ininterrotta di chiarezza tettonica, e se la Roma di Borromini rappresentava una rottura di quella stabilità, rivelando che l’ordine architettonico non è fisso ma contingente, non è singolare ma sempre in negoziazione, allora le architetture guidate dall’intelligenza artificiale operano in un campo che si estende oltre entrambi i paradigmi, dove l’architettura non è né un’affermazione del precedente né una dissoluzione nell’aberrazione formale, bensì un continuo processo di estrazione, perfezionamento e ricalibrazione.

L’architettura, a lungo concepita come un atto di iscrizione, un atto di risoluzione, un atto per dare coerenza all’incertezza spaziale, ora esiste in una condizione in cui la forma non è più dettata ma estratta, in cui la progettazione non è più un atto finale ma una negoziazione continua, in cui l’autorialità non è più centralizzata ma distribuita tra cognizione umana e intelligenza macchinica. In questo paradigma, l’architettura non viene disegnata, modellata o renderizzata, ma addestrata.

architettura
Visualizzazione dello spazio latente nell'estetica generata dall'intelligenza artificiale, con la mappatura di 12 milioni di immagini ad alto punteggio del set di dati LAION. A differenza dei metodi generativi tradizionali, vincolati da input predefiniti, i modelli di apprendimento automatico navigano in questo vasto substrato computazionale, estraendo affinità, modelli e relazioni spaziali che emergono senza un'autorialità diretta. Questo processo non è una semplice replica, ma una forma di mimesi, un'astrazione e una riconfigurazione dell'intelligenza visiva, in cui le categorie si dissolvono in reti fluide di riconoscimento, associazione e inferenza
  1. Fischer von Erlach, Johann Bernhard. Entwurff einer historischen Architectur. Leipzig: [s.n.], 1725
  2. Neville, Kristoffer. “The Early Reception of Fischer Von Erlach’s Entwurff Einer Historischen Architectur”. Journal of the Society of Architectural Historians 66, no. 2 (2007): 160-75
  3. Serlio, Sebastiano, and Giovanni Domenico Scamozzi. 1619. Tutte L’opere d’Architettura, et Prospetiua. Di nuouo ristampate, & con ogni diligenza corrette. In Venetia: Appresso Giacomo de’ Franceschi
  4. Palladio, Andrea, Domenico De’ Franceschi, Robert Hoe, Giuseppe Martini, Jacques-Auguste De Thou, and Lessing J. Rosenwald Collection. I Quattro Libri Dell’architettura, Ne’ Quali, Dopo UN Breue Trattato De’ Cinque Ordini, & DI Quelli Auertimenti, Che Sono Piu Necessarii Nel Fabricare. Venetia, D. de’ Franceschi, 1570. Pdf
  5. Scamozzi, Vincenzo, and Costantino Gianni. L’idea dell’architettura universale. Milano: Coi tipi di Borroni e Scotti, 1838
  6. Piranesi, Giovanni Battista, Della Magnificenza Ed Architettura De’romani. S.l.: s.n., 1761
  7. Sussan Babaie, “Architectural ‘Worlding’: Fischer von Erlach and the Eighteenth-Century Fabrication of a History of Architecture”, Journal18, Issue 12 The ‘Long’ 18th Century? (Fall 2021)
  8. Lawrence, Denise L., and Setha M. Low. “The Built Environment and Spatial Form”. Annual Review of Anthropology
    19 (1990): 453-505
  9. Schumacher, Patrik. (2009). Parametricism: A New Global Style for Architecture and Urban Design. Architectural Design. 79. 14 - 23
  10. del Campo M, Carlson A, Manninger S. Towards Hallucinating Machines - Designing with Computational Vision. International Journal of Architectural Computing. 2021;19(1):88-103
  11. Hill, Michael; Practical and Symbolic Geometry in Borromini’s San Carlo alle Quattro Fontane. Journal of the Society of Architectural Historians 1 December 2013; 72 (4): 555-583
  12. Summers, David. “Heinrich Wölfflin’s ‘Kunstgeschichtliche Grundbegriffe’, 1915.” The Burlington Magazine 151, no. 1276 (2009): 476-79
  13. Parisi, L. (2016). Automated Thinking and the Limits of Reason. Cultural Studies ↔ Critical Methodologies, 16(5), 471-481
  14. Ennemoser B, Mayrhofer-Hufnagl I. Design across multi-scale datasets by developing a novel approach to 3DGANs. International Journal of Architectural Computing. 2023;21(2):358-373
  15. Kerbl, Bernhard, Georgios Kopanas, Thomas Leimkühler, and George Drettakis. “3d gaussian splatting for real-time radiance field rendering.” ACM Trans. Graph. 42, no. 4 (2023): 139-1
  16. Muldoon, J., Cant, C., Wu, B., & Graham, M. (2024). A typology of artificial intelligence data work. Big Data & Society, 11(1)
  17. del Campo, M. Deep House - datasets, estrangement, and the problem of the new. ARIN 1, 12 (2022)
  18. ibid
  19. Basheer IA, Hajmeer M. Artificial neural networks: fundamentals, computing, design, and application. J Microbiol Methods. 2000 Dec 1;43(1):3-31
  20. Salingaros, Nikos Angelos, and Kenneth G. Masden II. “Architecture: Biological Form and Artificial Intelligence.” The Structurist, no. 45/46 (2006): 54-61
  21. Crevels, E 2024, ‘Epistemologies of Making: A theory of craftsmanship for architecture’, Doctor of Philosophy, Delft University of Technology
  22. Carpo Mario, . 2001. Architecture in the age of printing. Cambridge, Mass: MIT Press
  23. Crawford, Kate. “4 Classification” In Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, 123-150. New Haven: Yale University Press, 2021
  24. Matias del Campo in his lecture for the Generations conference at the MAK in Vienna, Fri, 02.06.2023, MAK Lecture Hall, Vienna, Austria
  25. Le Corbusier. 1924. Vers Une Architecture. Nouvelle éd. revue et augmentée. Paris: G. Crès et Cie
  26. Gropius, Walter, 1883-1969. The New Architecture and the Bauhaus. London :Faber and Faber, limited, 1935.
  27. Tomita, Hideo. Hannes Meyer’s Scientific Worldview and Architectural Education at the Bauhaus (1927-1930), The Second Asian Conference of Design History and Theory -Design Education beyond Boundaries - ACDHT 2017 TOKYO 1-2 September 2017 Tsuda University
  28. Cohen, J.-L., 2014. Le Corbusier’s Modulor and the Debate on Proportion in France. Architectural Histories, 2(1), p.Art. 23
  29. Neufert, E. (1936). Bauentwurfslehre. Bauwelt-Verlag
  30. Venturi, R. (1966). Complexity and contradiction in architecture. Museum of Modern Art
  31. Tschumi, B. (1994). Architecture and disjunction. MIT Press
  32. Lynn, G. (1999). Animate form. Princeton Architectural Press
  33. Kwinter, S. (2008). Far from equilibrium: Essays on technology and design culture. Actar
  34. Cilento, K. (2010, June 16). Parametricist manifesto / Patrik Schumacher. ArchDaily. Retrieved February 27, 2025
  35. del Campo, M., Manninger, S., & Carlson, A. (2020). A question of style: Style, artificial intelligence, and architecture. In Artificial Intelligence: Selected Papers (pp. 67-83). Springer
  36. Parisi, L. (2013). Contagious architecture: Computation, aesthetics, and space. MIT Press
  37. del Campo, M. (2024). Diffusions in Architecture: Artificial Intelligence and Image Generators (1st ed). John Wiley & Sons, Inc

Images: Riccardo Guise, Marlies Wirth