TRaceON - 65/17 Settembre 2024
di Adriano Parracciani aka cyberparra
Numero monotematico
Antropomorfismo & IA
Tendenza ad attribuire aspetto, facoltà e destini umani a figure immaginarie, animali e cose. (Treccani)
Cominciamo con un esempio leggero ma non troppo
- un chatbot deve ammettere quando non conosce la risposta giusta, alzare la mano, e chiedere aiuto -
È quanto ha detto in sintesi Vik Singh, VP Microsoft. 1
🙋♀️Un chatBot che alza la mano. Bene
Ora facciamo sul serio:
«Abbiamo addestrato questi modelli a dedicare più tempo a riflettere sui problemi prima di rispondere, proprio come farebbe una persona. Attraverso l’addestramento, imparano ad affinare il loro processo di pensiero, a provare strategie diverse e a riconoscere i loro errori».
È quanto scrive OpenaAI, che ha lanciato 01.
🤔 o1 thinks before it answers23
Detto questo vediamo, ad esempio, cosa ne pensa Clem Delangue, CEO di Hugging Face, sulla AI che "pensa" (a dire di Sam)
😈 Dare la falsa impressione che i sistemi tecnologici siano umani è marketing per ingannare l'utente
Sto pensando…
Appena ho letto "sto pensando" nella risposta di ChatGPT o1 mi son detto: bah, bella furbata marketing, ma così, solo come sensazione.
Ora qualcuno sta facendo le pulci a Sam.
Ecco cosa dice in sintesi l’autore dell’articolo Smoke & Mirrors
Critica al modello o1: Il modello o1 non si basa sul processo Q* di OpenAI, ma segue un generico schema di Chain-of-Thought (CoT), suddividendo i compiti in passi strutturati come "Pensare" e "Analizzare", senza utilizzare algoritmi di apprendimento per rinforzo.
Essenzialmente GPT-4 perfezionato: Il modello sembra essere una versione fine-tuned di GPT-4, con l'aggiunta di un modulo CoT che organizza l'interazione attraverso script dinamici e parole chiave, ma senza effettivo pensiero o ragionamento.
Illusione di intelligenza: Il modulo CoT dà solo l'impressione di maggiore complessità, ma in realtà si tratta di una trovata ("smoke and mirrors") che apporta miglioramenti marginali, mantenendo gli stessi problemi di fondo e aumentando la latenza.
La risposta dalla Filosofia
Così leggiamo in un articolo di The Conversation.
Intellingenza, pensiero, coscienza, termini sfuggenti. La scienza non ha ancora risposte, ad esempio, su come la coscienza emerga dal cervello umano. Forse è la filosofia che può offrire nuove risposte.
La filosofia aiuta a criticare e comprendere l'impatto sociale e politico dell'IA. Alcuni filosofi, come Jamie Susskind, ritengono che il potere crescente delle aziende tecnologiche richieda un nuovo modo di pensare l'organizzazione sociale, per limitare l'influenza eccessiva sul funzionamento delle democrazie.
E allora chiediamo a Platone
Ho interrogato LufLot il bot di Luciano Floridi
IO: Cosa penserebbe Platone dell'Intelligenza Artificiale oggi?
LUFLOT: Speculare su cosa potrebbe pensare Platone dell'Intelligenza Artificiale (IA) implica interpretare le sue dottrine filosofiche nel contesto della tecnologia moderna, un compito che include inevitabilmente un certo grado di congettura. Tuttavia, utilizzando elementi chiave della filosofia platonica, possiamo ipotizzare alcune prospettive che potrebbe avere.
Teoria delle Idee e le simulazioni dell'IA: La Teoria delle Idee di Platone sostiene che le forme non fisiche (ma sostanziali) rappresentano la realtà più accurata. Dato questo, Platone potrebbe vedere l'IA, che opera nel regno delle simulazioni e delle rappresentazioni, come un'ulteriore astrazione o ombra delle vere forme. L'IA crea modelli del mondo che potrebbero somigliare alle ombre della sua Allegoria della Caverna, dove la realtà percepita dai prigionieri è solo un'ombra della vera forma degli oggetti.
Conoscenza e apprendimento: Platone credeva nell'anamnesi, l'idea che l'apprendimento fosse un ricordo di ciò che l'anima ha già visto ma ha dimenticato. In questa visione, la vera conoscenza deriva dall'intuizione delle forme eterne e immutabili piuttosto che da prove empiriche o dall'esperienza sensoriale. Da questo punto di vista, potrebbe essere scettico riguardo alla capacità dell'IA di "conoscere" o "imparare" qualcosa nel senso filosofico, poiché l'apprendimento e la conoscenza dell'IA si basano su dati in ingresso e algoritmi.
Filosofi-re e governance: Nel suo lavoro "La Repubblica", Platone sostiene l'idea dei filosofi-re, governanti che comprendono le forme e sono quindi in grado di governare saggiamente. L'idea che sistemi intelligenti possano potenzialmente guidare o influenzare le decisioni umane potrebbe intrigare Platone. Tuttavia, probabilmente insisterebbe sul fatto che l'IA, mancando di una vera comprensione e della saggezza derivata dalla conoscenza delle forme, non potrebbe assumere il ruolo di filosofo-re.
Implicazioni etiche: L'enfasi di Platone sull'ottenimento di una vita buona e il suo focus sull'etica delle virtù potrebbero portarlo a interrogarsi sulle implicazioni etiche dell'IA. Probabilmente sarebbe interessato a capire come l'IA si allinea o confligge con le virtù umane e come potrebbe essere utilizzata per promuovere un comportamento etico o, al contrario, portare a mancanze etiche.
In sintesi, sebbene Platone potrebbe trovare alcuni aspetti dell'intelligenza artificiale teoricamente intriganti, i suoi principi filosofici probabilmente lo porterebbero a guardare con scetticismo alle capacità e alla conoscenza dell'IA, data la sua enfasi sulle vere forme, l'intuizione dell'anima e il governo virtuoso.
📚 Consigli di lettura
Sam parla di pensiero e ragionamento per la sua 01, ma è ancora lontano da Pensiero Sintetico Profondo. Cos'è? leggi 2099 - il mondo a fine secolo
📖 2099 - il mondo a fine secolo
Il team di Raakel sta costruendo una macchina che prevede il futuro, loro la chiamano la Pizia; per noi sarebbe una Intelligenza Artificiale, ma il team non ama particolarmente il termine. Il nome tecnico della Pizia è PSP, acronimo che racchiude l’essenza della macchina.
Consiglio di leggere l'articolo di copertina dell'ultimo numero di internazionale (https://www.internazionale.it/sommario/1579), l'ho trovato molto interessante. Affronta il problema di come fin dal principio (1968) l'informatica abbia preso la strada che chiama del "soluzionismo"o risolvere il "problema del termostato" (temperatura ottimale), di essere uno "schiavo volenteroso". Altre scuole di pensiero abbandonate indirizzavano verso un'informatica più "reattiva", che avesse l'obiettivo anche di contraddire o correggere l'utente.