Da: https://contropiano.org - Guglielmo Carchedi, economista presso l’Università di Amsterdam.
In un commento al post di Michael Roberts sull’intelligenza artificiale (IA) e le nuove macchine per l’apprendimento del linguaggio (LLM), l’autore e commentatore Jack Rasmus ha sollevato alcune domande, che mi sono sentito in dovere di riprendere.
Jack ha detto: “l’analisi di Marx sulle macchine e il suo punto di vista secondo cui le macchine sono un valore del lavoro condensato che viene trasferito nella merce quando si deprezza, si applicano completamente alle macchine basate su software AI che hanno la capacità crescente di auto-mantenersi e aggiornare il proprio codice senza l’intervento del lavoro umano – cioè di non deprezzarsi?“.
La mia risposta alla legittima domanda di Jack presuppone lo sviluppo di un’epistemologia marxista (una teoria della conoscenza), un’area di ricerca che è rimasta relativamente inesplorata e poco sviluppata.
A mio avviso, una delle caratteristiche principali di un approccio marxista è la distinzione tra “produzione oggettiva” (la produzione di cose oggettive) e “produzione mentale” (la produzione di conoscenza).
La cosa più importante è che la conoscenza deve essere vista come materiale, non come “immateriale”, né come un riflesso della realtà materiale. Questo ci permette di distinguere tra mezzi di produzione (MP) oggettivi e MP mentali; entrambi sono materiali.
Marx si è concentrato principalmente, ma non esclusivamente, sui primi. Ciononostante, nelle sue opere ci sono molti spunti su come dovremmo intendere la conoscenza.
Una macchina è un MP oggettivo; la conoscenza incorporata in essa (o disincorporata) è un MP mentale. Quindi, l’IA (compresa ChatGPT) dovrebbe essere vista come una MP mentale. A mio avviso, dato che la conoscenza è materiale, i MP mentali sono materiali quanto i MP oggettivi.
Perciò, i MP mentali hanno valore e producono plusvalore se sono il risultato del lavoro mentale umano svolto per il capitale. Quindi, l’IA coinvolge il lavoro umano. Solo che si tratta di lavoro mentale.
Come i MP oggettivi, anche quelli mentali aumentano la produttività e riducono il lavoro. Il loro valore può essere misurato in ore di lavoro. La produttività dei MP mentali può essere misurata, ad esempio, dal numero di volte in cui ChatGPT viene venduto o scaricato o applicato ai processi di lavoro mentale.
Come le MP oggettive, il loro valore aumenta con l’aggiunta (da parte del lavoro umano) di miglioramenti (ulteriore conoscenza) e diminuisce a causa dell’usura. Quindi, i MP mentali (AI) non solo si svalutano, ma lo fanno anche a un ritmo molto veloce. Si tratta di un deprezzamento dovuto alla concorrenza tecnologica (obsolescenza), piuttosto che di un deprezzamento fisico. E, come i MP oggettivi, la loro produttività influisce sulla redistribuzione del plusvalore
Nella misura in cui i nuovi modelli di ChatGPT sostituiscono quelli più vecchi, a causa dei differenziali di produttività e dei loro effetti sulla redistribuzione del plusvalore (teoria dei prezzi di Marx), i modelli più vecchi perdono valore rispetto a quelli più nuovi e più produttivi.
Jack chiede: “questa capacità è basata sul lavoro umano o no? Se no, cosa significa un ‘no’ per il concetto chiave di Marx della composizione organica del capitale e, a sua volta, per il vostro (Roberts e Carchedi, ndt) più volte dichiarato appoggio all’ipotesi della caduta tendenziale del tasso di profitto?“.
La mia risposta precedente è stata che questa “capacità” non solo è basata sul lavoro umano (mentale), ma è lavoro umano. Da questo punto di vista, non c’è alcun problema con il concetto di Marx di composizione organica del capitale (C).
Poiché l’IA e quindi ChatGPT sono nuove forme di conoscenza, di MP mentale, il numeratore di C è la somma di MP oggettivo più MP mentale. Il denominatore è la somma del capitale variabile speso in entrambi i settori. Quindi il tasso di profitto è il plusvalore generato in entrambi i settori diviso per (a) la somma della MP in entrambi i settori più (b) il capitale variabile speso sempre in entrambi i settori.
Quindi la legge della caduta tendenziale del tasso di profitto è invariata dalla MP mentale, contrariamente a quanto suggerito da Jack.
Per comprendere meglio i punti sopra esposti, è necessario esaminare e sviluppare la teoria implicita della conoscenza di Marx. Questo è ciò che fanno i paragrafi seguenti, anche se in una versione estremamente sintetica.
Consideriamo innanzitutto i computer classici. Essi trasformano la conoscenza sulla base della logica formale, o logica booleana o algebra, che esclude la possibilità che la stessa affermazione sia vera e falsa allo stesso tempo. La logica formale e quindi i computer escludono le contraddizioni. Se potessero percepirle, sarebbero errori logici. Lo stesso vale per i computer quantistici.
In altre parole, la logica formale spiega i processi di lavoro mentale predeterminati (in cui il risultato del processo è noto in anticipo e quindi non contraddittorio con la conoscenza che entra in quel processo di lavoro), ma esclude i processi di lavoro mentale aperti (in cui il risultato emerge come qualcosa di nuovo, non ancora noto).
Un processo aperto attinge a un bagaglio di conoscenza informe e potenziale, che ha una natura contraddittoria a causa della natura contraddittoria degli elementi in esso sedimentati. A differenza della logica formale, la logica aperta si basa sulle contraddizioni, compresa la contraddizione tra gli aspetti potenziali e quelli realizzati della conoscenza. Questa è la fonte delle contraddizioni tra gli aspetti della realtà, compresi gli elementi della conoscenza.
Per tornare all’esempio precedente, per i processi di lavoro mentale aperti, A=A e anche A¹A. Non c’è contraddizione in questo caso. A=A perché A come entità realizzata è uguale a se stessa per definizione; ma A¹A perché A realizzata può essere in contraddizione con A potenziale. Questa è la natura del cambiamento, qualcosa che la logica formale non può spiegare.
Questo vale anche per l’Intelligenza Artificiale (IA). Come i computer, l’IA funziona sulla base della logica formale. Ad esempio, alla domanda se A=A e se allo stesso tempo può essere A¹A, Chat GPT risponde negativamente. Poiché funziona sulla base della logica formale, l’IA non ha un serbatoio di conoscenza potenziale da cui estrarre altra conoscenza. Non può concepire le contraddizioni perché non può concepire il potenziale. Queste contraddizioni sono l’humus del pensiero creativo, cioè della generazione di nuova conoscenza ancora sconosciuta.
L’intelligenza artificiale può solo ricombinare, selezionare e duplicare le forme di conoscenza realizzate. In compiti come la visione, il riconoscimento delle immagini, il ragionamento, la comprensione della lettura e il gioco possono ottenere risultati molto migliori degli esseri umani. Ma non possono generare nuova conoscenza.
Consideriamo il riconoscimento facciale, una tecnica che confronta la fotografia di un individuo con un database di volti noti per trovare una corrispondenza. Il database è costituito da una serie di volti noti. La ricerca di una corrispondenza seleziona un volto già realizzato, cioè già conosciuto. Non viene generata nuova conoscenza (nuovi volti).
Il riconoscimento facciale può trovare una corrispondenza molto più rapidamente di quanto possa fare un essere umano. Rende il lavoro umano più produttivo. Ma la selezione non è creazione. La selezione è un processo mentale predeterminato; la creazione è un processo mentale aperto.
Prendiamo un altro esempio. ChatGPT sembrerebbe emulare la scrittura creativa umana. In realtà, non è così. Ricava la sua conoscenza da grandi quantità di dati testuali (gli oggetti della produzione mentale). I testi sono divisi in pezzi più piccoli, frasi, parole o sillabe, i cosiddetti token.
Quando ChatGPT scrive un pezzo, non sceglie il token successivo in base alla logica dell’argomento (come fanno gli esseri umani). Sceglie invece il token più probabile. Il risultato della scrittura è una catena di token assemblati sulla base della combinazione statisticamente più probabile. Si tratta di una selezione e ricombinazione di elementi di conoscenza già realizzati, non della creazione di nuova conoscenza.
Come dicono Chomsky et al. (2023): “l’intelligenza artificiale prende enormi quantità di dati, ne cerca gli schemi e diventa sempre più abile nel generare risultati statisticamente probabili, come un linguaggio e un pensiero apparentemente simili a quelli umani… [ChatGPT] si limita a riassumere gli argomenti standard della letteratura“.
Potrebbe accadere che ChatGPT produca un testo che non è mai stato pensato dagli esseri umani. Ma si tratterebbe comunque di un riassunto e di una rielaborazione di dati già noti. Non ne potrebbe scaturire una scrittura creativa, perché la nuova conoscenza realizzata può emergere solo dalle contraddizioni insite nella conoscenza potenziale.
Morozov (2023) fornisce un esempio rilevante: “l’opera d’arte Fountain di Marcel Duchamp del 1917. Prima dell’opera di Duchamp, un orinatoio era solo un orinatoio. Ma, con un cambio di prospettiva, Duchamp lo trasformò in un’opera d’arte. Alla domanda su cosa avessero in comune il portabottiglie, la pala da neve e l’orinatoio di Duchamp, Chat GPT ha risposto correttamente che sono tutti oggetti di uso quotidiano che Duchamp ha trasformato in arte”.
“Ma quando gli è stato chiesto quali oggetti di oggi Duchamp avrebbe potuto trasformare in arte, ha suggerito smartphone, monopattini elettronici e maschere facciali. Non c’è alcun accenno a una vera ‘intelligenza’. È una macchina statistica ben gestita ma prevedibile“.
Marx fornisce il quadro teorico adeguato per comprendere la conoscenza. Gli esseri umani, oltre a essere individui concreti unici, sono anche portatori di relazioni sociali, in quanto individui astratti.
In quanto individui astratti, “umani” è una denominazione generale che cancella le differenze tra gli individui, tutti con interessi e visioni del mondo diversi. Anche se le macchine (i computer) potessero pensare, non potrebbero pensare come gli esseri umani determinati dalla classe, con concezioni diverse, determinate dalla classe, di ciò che è vero e falso, giusto o sbagliato.
Credere che i computer siano in grado di pensare come gli esseri umani non solo è sbagliato, ma è anche un’ideologia a favore del capitale, perché significa essere ciechi di fronte al contenuto di classe della conoscenza immagazzinata nel lavoro e quindi alle contraddizioni insite nella generazione della conoscenza.
Per approfondire la teoria marxista della conoscenza e la sua relazione con la legge del valore di Marx, si veda il mio recente articolo, The Ontology and Social Dimension of Knowledge: The Internet Quanta Time, International Critical Thought, 2022 e il libro scritto con Michael Roberts, Capitalism in the 21st century, capitolo quinto.
Nessun commento:
Posta un commento