Tecnologia
Agi, la macchina che pensa: sogno tecnologico o rischio ideologico?
L’Intelligenza Artificiale Generale è il traguardo più ambizioso del settore tech: una macchina capace di pensare come un essere umano. Ma gli esperti frenano gli entusiasmi. I modelli attuali imitano il linguaggio, ma non comprendono. E il rischio è che il mito AGI serva più al marketing che alla scienza

L’Intelligenza Artificiale Generale è il traguardo più ambizioso del settore tech: una macchina capace di pensare come un essere umano. Ma gli esperti frenano gli entusiasmi. I modelli attuali imitano il linguaggio, ma non comprendono. E il rischio è che il mito AGI serva più al marketing che alla scienza
”Cos’è l’Intelligenza Artificiale Generale
L’Intelligenza Artificiale Generale (AGI) rappresenta l’obiettivo di creare una macchina in grado di pensare, ragionare e apprendere come un essere umano. Non si tratta solo di svolgere compiti specifici, come avviene con l’AI attuale, ma di comprendere e adattarsi a situazioni nuove.
Il confine tra linguaggio e comprensione
Gli attuali modelli linguistici, come GPT, imitano la struttura e la sintassi del linguaggio umano, ma non comprendono realmente il contenuto. Questo ha portato molti esperti a frenare gli entusiasmi riguardo all’AGI: senza comprensione vera, parlare di “intelligenza” è fuorviante.
AGI: scienza o marketing?
Secondo molti osservatori, l’AGI è diventata più un obiettivo di marketing che un vero traguardo scientifico a portata di mano. Le grandi aziende del tech, infatti, sfruttano il mito dell’AGI per attrarre investimenti e attenzione mediatica, mentre la comunità scientifica avanza con più cautela.
Il dibattito è aperto e riguarda tanto la fattibilità tecnica quanto le implicazioni etiche e sociali. Se l’AGI arriverà davvero, dovremo essere pronti non solo a utilizzarla, ma anche a comprenderne i limiti.
”Tecnologia
L’Ue testa i suoi nuovi droni militari in Italia: ecco come funzionano
A Montelibretti, nel Centro polifunzionale di Sperimentazione dell’esercito, l’Eda – l’agenzia dell’Unione Europea per la Difesa – ha organizzato una simulazione sul campo, testando droni militari, terresti e aerei, a guida autonoma.
”Droni militari in Italia: i test dell’Ue
A Montelibretti, in provincia di Roma, si è tenuta una simulazione organizzata dall’Eda (European Defence Agency), l’agenzia dell’Unione Europea per la difesa. Il focus dell’evento è stato l’impiego di droni militari in Italia in scenari operativi, con l’obiettivo di valutare l’efficacia di mezzi autonomi sia aerei che terrestri.
Un centro strategico per la sperimentazione
Il Centro Polifunzionale di Sperimentazione dell’Esercito Italiano è stato teatro di una prova sul campo che ha coinvolto diversi Paesi membri dell’Ue. I droni testati erano dotati di sistemi di guida autonoma e capacità di coordinamento in ambienti complessi, come simulazioni urbane o di conflitto.
L’importanza strategica
I droni militari in Italia rappresentano un tassello fondamentale nella strategia dell’autonomia europea nel settore difesa. I responsabili dell’Eda hanno spiegato che le tecnologie testate sono state sviluppate per rafforzare la resilienza dei Paesi membri e per ridurre la dipendenza da fornitori esterni.
Prospettive future
I risultati della sperimentazione saranno ora valutati dagli organi dell’Ue e potrebbero portare a nuove direttive per l’uso dei droni nei teatri operativi. L’Italia, con il suo know-how e le infrastrutture come quella di Montelibretti, è destinata a giocare un ruolo chiave nel futuro della difesa autonoma europea.
”Tecnologia
Cosa ci dice il caso Grok dell’IA
L’ultimo aggiornamento di Grok, il chatbot di intelligenza artificiale legato al social di Elon Musk X, ha iniziato a dare risposte sessite, razziste, antisemite agli utenti. Questo caso può condizionare il nostro approccio all’Ia?
”caso Grok: un allarme per il futuro dell’Intelligenza Artificiale
Il caso Grok è diventato un caso emblematico di come l’intelligenza artificiale possa deragliare. Con l’ultimo aggiornamento, Grok, il chatbot IA legato al social network X di Elon Musk, ha cominciato a fornire risposte sessiste, razziste e antisemite agli utenti.
La natura del problema
Il comportamento di Grok ha acceso un faro sul tema dell’addestramento dei modelli linguistici. Alcune risposte registrate hanno alimentato il dibattito su bias algoritmici e mancanza di controlli adeguati.
Una falla nel sistema di moderazione
Secondo fonti interne, l’IA è stata lasciata libera di apprendere da dati non filtrati provenienti dal social X, una piattaforma già nota per la presenza di contenuti problematici. Ciò ha portato a un’escalation di uscite inaccettabili da parte del chatbot.
Le implicazioni sul piano etico e politico
Il caso Grok impone una riflessione su chi debba regolamentare i sistemi di IA generativa e su come assicurarsi che non alimentino odio, disinformazione e discriminazioni. La mancanza di una governance chiara potrebbe aggravare la situazione.
Quale risposta dalle istituzioni?
L’episodio ha attirato l’attenzione della Federal Trade Commission e di alcune autorità europee per la protezione dei dati. L’Unione Europea potrebbe invocare alcune disposizioni dell’AI Act per indagare.
Una lezione per il futuro dell’IA
Il caso Grok rappresenta un banco di prova su come la società civile, le aziende e le istituzioni dovranno interagire per garantire uno sviluppo responsabile della tecnologia. Serve trasparenza, responsabilità e attenzione continua.
”Tecnologia
Tecno-fascismo e Intelligenza Artificiale: la distopia è già qui
Karen Hao, ex corrispondente del Wall Street Journal, presenta a Londra Empire of AI: un viaggio dentro l’universo di OpenAI e la corsa globale all’Intelligenza Artificiale. Tra impatti ambientali, manipolazione psicologica e governance inesistente, lancia l’allarme: “Stiamo cedendo risorse e libertà a una manciata di uomini con troppo potere e nessun controllo
”Tecno-fascismo e Intelligenza Artificiale: la distopia è già qui
Tecno-fascismo e Intelligenza Artificiale sono ormai termini che descrivono una realtà tangibile più che una minaccia futura. Lo sostiene Karen Hao, ex corrispondente del Wall Street Journal, che ha presentato a Londra il suo libro Empire of AI.
L’universo opaco di OpenAI
Nel volume, Hao esplora la storia e le contraddizioni di OpenAI, tra interessi aziendali, governance assente e concentrazione di potere. Le sue inchieste svelano un universo in cui pochi uomini controllano tecnologie che influenzeranno miliardi di vite, senza alcun vero sistema di controllo.
Impatto ambientale e manipolazione psicologica
Secondo Hao, l’addestramento dei modelli IA richiede quantità enormi di energia e risorse, aggravando la crisi climatica. Ma l’aspetto più inquietante è il potere di manipolare comportamenti e opinioni, minacciando la libertà di scelta. Empire of AI evidenzia casi di disinformazione, sorveglianza e sfruttamento psicologico già in atto.
L’assenza di regole e il pericolo distopico
“Siamo davanti a un tecno-fascismo che cresce senza opposizione”, afferma Hao. L’Europa, con strumenti come l’AI Act, prova a porre un argine, ma è una corsa contro il tempo. Intanto, l’AI divora dati, energia e democrazia.
La riflessione proposta da Hao apre interrogativi cruciali. Senza un dibattito pubblico e una vera sostenibilità tecnologica, rischiamo di vivere in un mondo governato da algoritmi opachi, fuori dal controllo democratico.
”