Connect with us

Tecnologia

Tecno-fascismo e Intelligenza Artificiale: la distopia è già qui

Published

on

Tecno-fascismo e Intelligenza Artificiale

Karen Hao, ex corrispondente del Wall Street Journal, presenta a Londra Empire of AI: un viaggio dentro l’universo di OpenAI e la corsa globale all’Intelligenza Artificiale. Tra impatti ambientali, manipolazione psicologica e governance inesistente, lancia l’allarme: “Stiamo cedendo risorse e libertà a una manciata di uomini con troppo potere e nessun controllo

Tecno-fascismo e Intelligenza Artificiale: la distopia è già qui

Tecno-fascismo e Intelligenza Artificiale sono ormai termini che descrivono una realtà tangibile più che una minaccia futura. Lo sostiene Karen Hao, ex corrispondente del Wall Street Journal, che ha presentato a Londra il suo libro Empire of AI.

L’universo opaco di OpenAI

Nel volume, Hao esplora la storia e le contraddizioni di OpenAI, tra interessi aziendali, governance assente e concentrazione di potere. Le sue inchieste svelano un universo in cui pochi uomini controllano tecnologie che influenzeranno miliardi di vite, senza alcun vero sistema di controllo.

Impatto ambientale e manipolazione psicologica

Secondo Hao, l’addestramento dei modelli IA richiede quantità enormi di energia e risorse, aggravando la crisi climatica. Ma l’aspetto più inquietante è il potere di manipolare comportamenti e opinioni, minacciando la libertà di scelta. Empire of AI evidenzia casi di disinformazione, sorveglianza e sfruttamento psicologico già in atto.

L’assenza di regole e il pericolo distopico

“Siamo davanti a un tecno-fascismo che cresce senza opposizione”, afferma Hao. L’Europa, con strumenti come l’AI Act, prova a porre un argine, ma è una corsa contro il tempo. Intanto, l’AI divora dati, energia e democrazia.

La riflessione proposta da Hao apre interrogativi cruciali. Senza un dibattito pubblico e una vera sostenibilità tecnologica, rischiamo di vivere in un mondo governato da algoritmi opachi, fuori dal controllo democratico.

Continue Reading
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

Tecnologia

L’Ue testa i suoi nuovi droni militari in Italia: ecco come funzionano

Published

on

By

A Montelibretti, nel Centro polifunzionale di Sperimentazione dell’esercito, l’Eda – l’agenzia dell’Unione Europea per la Difesa – ha organizzato una simulazione sul campo, testando droni militari, terresti e aerei, a guida autonoma.

Droni militari in Italia: i test dell’Ue

A Montelibretti, in provincia di Roma, si è tenuta una simulazione organizzata dall’Eda (European Defence Agency), l’agenzia dell’Unione Europea per la difesa. Il focus dell’evento è stato l’impiego di droni militari in Italia in scenari operativi, con l’obiettivo di valutare l’efficacia di mezzi autonomi sia aerei che terrestri.

Un centro strategico per la sperimentazione

Il Centro Polifunzionale di Sperimentazione dell’Esercito Italiano è stato teatro di una prova sul campo che ha coinvolto diversi Paesi membri dell’Ue. I droni testati erano dotati di sistemi di guida autonoma e capacità di coordinamento in ambienti complessi, come simulazioni urbane o di conflitto.

L’importanza strategica

I droni militari in Italia rappresentano un tassello fondamentale nella strategia dell’autonomia europea nel settore difesa. I responsabili dell’Eda hanno spiegato che le tecnologie testate sono state sviluppate per rafforzare la resilienza dei Paesi membri e per ridurre la dipendenza da fornitori esterni.

Prospettive future

I risultati della sperimentazione saranno ora valutati dagli organi dell’Ue e potrebbero portare a nuove direttive per l’uso dei droni nei teatri operativi. L’Italia, con il suo know-how e le infrastrutture come quella di Montelibretti, è destinata a giocare un ruolo chiave nel futuro della difesa autonoma europea.

Continue Reading

Tecnologia

Cosa ci dice il caso Grok dell’IA

Published

on

By

L’ultimo aggiornamento di Grok, il chatbot di intelligenza artificiale legato al social di Elon Musk X, ha iniziato a dare risposte sessite, razziste, antisemite agli utenti. Questo caso può condizionare il nostro approccio all’Ia?

caso Grok: un allarme per il futuro dell’Intelligenza Artificiale

Il caso Grok è diventato un caso emblematico di come l’intelligenza artificiale possa deragliare. Con l’ultimo aggiornamento, Grok, il chatbot IA legato al social network X di Elon Musk, ha cominciato a fornire risposte sessiste, razziste e antisemite agli utenti.

La natura del problema

Il comportamento di Grok ha acceso un faro sul tema dell’addestramento dei modelli linguistici. Alcune risposte registrate hanno alimentato il dibattito su bias algoritmici e mancanza di controlli adeguati.

Una falla nel sistema di moderazione

Secondo fonti interne, l’IA è stata lasciata libera di apprendere da dati non filtrati provenienti dal social X, una piattaforma già nota per la presenza di contenuti problematici. Ciò ha portato a un’escalation di uscite inaccettabili da parte del chatbot.

Le implicazioni sul piano etico e politico

Il caso Grok impone una riflessione su chi debba regolamentare i sistemi di IA generativa e su come assicurarsi che non alimentino odio, disinformazione e discriminazioni. La mancanza di una governance chiara potrebbe aggravare la situazione.

Quale risposta dalle istituzioni?

L’episodio ha attirato l’attenzione della Federal Trade Commission e di alcune autorità europee per la protezione dei dati. L’Unione Europea potrebbe invocare alcune disposizioni dell’AI Act per indagare.

Una lezione per il futuro dell’IA

Il caso Grok rappresenta un banco di prova su come la società civile, le aziende e le istituzioni dovranno interagire per garantire uno sviluppo responsabile della tecnologia. Serve trasparenza, responsabilità e attenzione continua.

Continue Reading

Tecnologia

Luciano Floridi: “Sull’AI l’Europa ha grandi opportunità”

Intervista al direttore del Digital Ethics Center di Yale e presidente della Fondazione Leonardo: tra i timori per gli Stati Uniti di Donald Trump e le sfide dell’intelligenza artificiale: “L’AI Act – spiega – non è un ostacolo ma una grande occasione per vincere la partita in un mondo sempre più frammentato”.

Published

on

By

Intervista al direttore del Digital Ethics Center di Yale e presidente della Fondazione Leonardo: tra i timori per gli Stati Uniti di Donald Trump e le sfide dell’intelligenza artificiale: “L’AI Act – spiega – non è un ostacolo ma una grande occasione per vincere la partita in un mondo sempre più frammentato”.

AI Europa opportunità: l’intervista a Luciano Floridi

Luciano Floridi, direttore del Digital Ethics Center di Yale, affronta in questa intervista il tema dell’intelligenza artificiale e delle sfide normative europee. In particolare, l’AI Act diventa un’occasione cruciale per l’Unione europea di ritagliarsi un ruolo da protagonista nel futuro della tecnologia.

Un contesto globale frammentato

“Viviamo in un mondo multipolare”, afferma Floridi, “dove l’Europa può giocare la carta della regolamentazione etica”. Secondo il filosofo italiano, l’AI Act non è una barriera all’innovazione, ma un framework che può garantire sviluppo e sicurezza.

AI, Trump e la sfida americana

Floridi si dice preoccupato per un possibile ritorno di Trump alla Casa Bianca, che potrebbe indebolire le alleanze transatlantiche su temi fondamentali come la governance dell’intelligenza artificiale. L’Europa, proprio per questo, deve rafforzare la propria autonomia tecnologica.

La Fondazione Leonardo e il ruolo dell’Italia

Floridi, anche presidente della Fondazione Leonardo, sottolinea il ruolo dell’Italia nel contesto europeo: “Abbiamo talenti, imprese e idee. Serve una visione chiara per valorizzarli con politiche adeguate”.

L’AI, conclude Floridi, “non deve essere vista solo come una minaccia ma come una straordinaria occasione per disegnare il nostro futuro”.

Continue Reading

Trending