Connect with us

Tecnologia

Truffe al telefono: Chiamano in italiano perfetto… e svuotano il conto

Published

on

truffe telefoniche in italiano perfetto

Potrebbe essere l’allarme di un virus critico o di un’indagine fiscale. Ma dall’altra parte della cornetta c’è, con ogni probabilità, una persona addestrata che parla da un call center indiano. Grazie all’intelligenza artificiale, però, lo fa in perfetto italiano. Quanti miliardi di euro vengono estorti ogni anno e come correre ai ripari

Negli ultimi anni, le truffe telefoniche si sono evolute drasticamente. L’uso dell’intelligenza artificiale ha permesso ai truffatori, spesso operativi da call center situati in India, di contattare le vittime parlando un italiano perfetto.

Cos’è una truffa telefonica AI-powered

Una voce convincente, italiana e cordiale, ti avvisa di un rischio imminente: un virus, una frode bancaria, un’indagine fiscale. È una delle tante strategie messe in atto per ottenere l’accesso ai tuoi dati finanziari.

Come riconoscere le chiamate sospette

Parole chiave come “urgente”, “verifica immediata”, e la richiesta di dati bancari o codici OTP sono segnali d’allarme. Spesso i truffatori simulano numeri ufficiali.

Le tecnologie usate nei call center

L’uso di software text-to-speech avanzati e modelli di intelligenza artificiale permette a operatori stranieri di parlare in italiano con inflessioni quasi native. Un deepfake vocale in tutto e per tutto.

Le truffe più frequenti e i dati economici

Le truffe bancarie rappresentano una fetta importante del cybercrimine. Secondo le stime europee, solo nel 2023 sono stati sottratti oltre 2 miliardi di euro ai risparmiatori con tecniche simili.

Come difendersi e cosa fare se si cade vittima

Mai fornire dati sensibili al telefono. Se hai un dubbio, riaggancia e contatta direttamente l’ente che ti avrebbe contattato. In caso di truffa, denunciare subito alla polizia postale e contattare la propria banca.

Le truffe telefoniche in italiano perfetto sono l’ennesima evoluzione del crimine digitale. Solo la consapevolezza e l’educazione digitale possono fare la differenza.

Continue Reading
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

Tecnologia

L’Ue testa i suoi nuovi droni militari in Italia: ecco come funzionano

Published

on

By

A Montelibretti, nel Centro polifunzionale di Sperimentazione dell’esercito, l’Eda – l’agenzia dell’Unione Europea per la Difesa – ha organizzato una simulazione sul campo, testando droni militari, terresti e aerei, a guida autonoma.

Droni militari in Italia: i test dell’Ue

A Montelibretti, in provincia di Roma, si è tenuta una simulazione organizzata dall’Eda (European Defence Agency), l’agenzia dell’Unione Europea per la difesa. Il focus dell’evento è stato l’impiego di droni militari in Italia in scenari operativi, con l’obiettivo di valutare l’efficacia di mezzi autonomi sia aerei che terrestri.

Un centro strategico per la sperimentazione

Il Centro Polifunzionale di Sperimentazione dell’Esercito Italiano è stato teatro di una prova sul campo che ha coinvolto diversi Paesi membri dell’Ue. I droni testati erano dotati di sistemi di guida autonoma e capacità di coordinamento in ambienti complessi, come simulazioni urbane o di conflitto.

L’importanza strategica

I droni militari in Italia rappresentano un tassello fondamentale nella strategia dell’autonomia europea nel settore difesa. I responsabili dell’Eda hanno spiegato che le tecnologie testate sono state sviluppate per rafforzare la resilienza dei Paesi membri e per ridurre la dipendenza da fornitori esterni.

Prospettive future

I risultati della sperimentazione saranno ora valutati dagli organi dell’Ue e potrebbero portare a nuove direttive per l’uso dei droni nei teatri operativi. L’Italia, con il suo know-how e le infrastrutture come quella di Montelibretti, è destinata a giocare un ruolo chiave nel futuro della difesa autonoma europea.

Continue Reading

Tecnologia

Cosa ci dice il caso Grok dell’IA

Published

on

By

L’ultimo aggiornamento di Grok, il chatbot di intelligenza artificiale legato al social di Elon Musk X, ha iniziato a dare risposte sessite, razziste, antisemite agli utenti. Questo caso può condizionare il nostro approccio all’Ia?

caso Grok: un allarme per il futuro dell’Intelligenza Artificiale

Il caso Grok è diventato un caso emblematico di come l’intelligenza artificiale possa deragliare. Con l’ultimo aggiornamento, Grok, il chatbot IA legato al social network X di Elon Musk, ha cominciato a fornire risposte sessiste, razziste e antisemite agli utenti.

La natura del problema

Il comportamento di Grok ha acceso un faro sul tema dell’addestramento dei modelli linguistici. Alcune risposte registrate hanno alimentato il dibattito su bias algoritmici e mancanza di controlli adeguati.

Una falla nel sistema di moderazione

Secondo fonti interne, l’IA è stata lasciata libera di apprendere da dati non filtrati provenienti dal social X, una piattaforma già nota per la presenza di contenuti problematici. Ciò ha portato a un’escalation di uscite inaccettabili da parte del chatbot.

Le implicazioni sul piano etico e politico

Il caso Grok impone una riflessione su chi debba regolamentare i sistemi di IA generativa e su come assicurarsi che non alimentino odio, disinformazione e discriminazioni. La mancanza di una governance chiara potrebbe aggravare la situazione.

Quale risposta dalle istituzioni?

L’episodio ha attirato l’attenzione della Federal Trade Commission e di alcune autorità europee per la protezione dei dati. L’Unione Europea potrebbe invocare alcune disposizioni dell’AI Act per indagare.

Una lezione per il futuro dell’IA

Il caso Grok rappresenta un banco di prova su come la società civile, le aziende e le istituzioni dovranno interagire per garantire uno sviluppo responsabile della tecnologia. Serve trasparenza, responsabilità e attenzione continua.

Continue Reading

Tecnologia

Tecno-fascismo e Intelligenza Artificiale: la distopia è già qui

Published

on

By

Karen Hao, ex corrispondente del Wall Street Journal, presenta a Londra Empire of AI: un viaggio dentro l’universo di OpenAI e la corsa globale all’Intelligenza Artificiale. Tra impatti ambientali, manipolazione psicologica e governance inesistente, lancia l’allarme: “Stiamo cedendo risorse e libertà a una manciata di uomini con troppo potere e nessun controllo

Tecno-fascismo e Intelligenza Artificiale: la distopia è già qui

Tecno-fascismo e Intelligenza Artificiale sono ormai termini che descrivono una realtà tangibile più che una minaccia futura. Lo sostiene Karen Hao, ex corrispondente del Wall Street Journal, che ha presentato a Londra il suo libro Empire of AI.

L’universo opaco di OpenAI

Nel volume, Hao esplora la storia e le contraddizioni di OpenAI, tra interessi aziendali, governance assente e concentrazione di potere. Le sue inchieste svelano un universo in cui pochi uomini controllano tecnologie che influenzeranno miliardi di vite, senza alcun vero sistema di controllo.

Impatto ambientale e manipolazione psicologica

Secondo Hao, l’addestramento dei modelli IA richiede quantità enormi di energia e risorse, aggravando la crisi climatica. Ma l’aspetto più inquietante è il potere di manipolare comportamenti e opinioni, minacciando la libertà di scelta. Empire of AI evidenzia casi di disinformazione, sorveglianza e sfruttamento psicologico già in atto.

L’assenza di regole e il pericolo distopico

“Siamo davanti a un tecno-fascismo che cresce senza opposizione”, afferma Hao. L’Europa, con strumenti come l’AI Act, prova a porre un argine, ma è una corsa contro il tempo. Intanto, l’AI divora dati, energia e democrazia.

La riflessione proposta da Hao apre interrogativi cruciali. Senza un dibattito pubblico e una vera sostenibilità tecnologica, rischiamo di vivere in un mondo governato da algoritmi opachi, fuori dal controllo democratico.

Continue Reading

Trending