Autore: redazione

  • OpenAI da record: 10 miliardi di dollari di fatturato, ma è davvero sostenibile?

    OpenAI da record: 10 miliardi di dollari di fatturato, ma è davvero sostenibile?

    L’azienda OpenAI ha annunciato di aver raggiunto un fatturato annuo ricorrente di 10 miliardi di dollari, un traguardo significativo che sottolinea la crescente domanda di intelligenza artificiale nel mercato globale. Questo risultato è stato ottenuto in meno di tre anni dal lancio del suo popolare chatbot, ChatGPT, evidenziando la rapidità con cui l’IA sta diventando parte integrante sia del settore consumer che di quello aziendale.

    Analisi delle Fonti di Reddito

    Il fatturato di 10 miliardi di dollari include le vendite derivanti dai prodotti consumer, dai prodotti aziendali ChatGPT e dalle API (Application Programming Interface). È importante notare che questa cifra non comprende i ricavi derivanti dalle licenze concesse a Microsoft e da accordi una tantum di grande entità. Questo dettaglio fornisce una visione più chiara delle fonti di reddito organiche di OpenAI, basate principalmente sull’adozione e sull’utilizzo diretto dei suoi prodotti e servizi.

    OpenAI serve attualmente oltre 500 milioni di utenti attivi settimanali e vanta 3 milioni di clienti aziendali paganti. Questo dato rappresenta un aumento del 50% rispetto ai 2 milioni di utenti paganti segnalati a febbraio 2025, dimostrando una crescita esponenziale della base clienti in un periodo di tempo relativamente breve.

    Obiettivi Futuri e Sfide Finanziarie

    Nonostante il successo attuale, OpenAI punta a raggiungere un fatturato di 125 miliardi di dollari entro il 2029. Questo obiettivo ambizioso riflette la fiducia dell’azienda nel potenziale di crescita del mercato dell’IA e nella sua capacità di capitalizzare su nuove opportunità. Tuttavia, per raggiungere tali traguardi, OpenAI deve affrontare sfide finanziarie significative.

    L’azienda sta investendo pesantemente nell’assunzione di talenti e nella costruzione dell’infrastruttura necessaria per addestrare ed eseguire i suoi sistemi di IA. Queste spese operative ammontano a miliardi di dollari all’anno. Nel 2024, OpenAI ha registrato una perdita di circa 5 miliardi di dollari. Ad oggi, OpenAI non ha divulgato i suoi costi operativi né ha indicato se è vicina alla redditività.

    Valutazione e Investimenti

    Il raggiungimento di un fatturato annuo ricorrente di 10 miliardi di dollari ha un impatto significativo sulla valutazione di OpenAI. A marzo 2025, l’azienda ha chiuso un round di finanziamento da 40 miliardi di dollari, segnando il più grande accordo tecnologico privato mai registrato. Con le metriche attuali, OpenAI è valutata circa 30 volte il suo fatturato, il che evidenzia le elevate aspettative di crescita da parte dei suoi principali investitori.

    OpenAI è sostenuta da importanti investitori come SoftBank, Microsoft, Coatue, Altimeter e Thrive. Questi investimenti forniscono all’azienda le risorse finanziarie necessarie per continuare a innovare e a espandersi nel mercato dell’IA.

    Prospettive Future: Oltre ChatGPT

    Oltre a ChatGPT, OpenAI sta esplorando nuove opportunità di crescita, tra cui lo sviluppo di dispositivi basati sull’IA. L’azienda ha collaborato con Jony Ive, ex chief design officer di Apple, per sviluppare 100 milioni di dispositivi AI, con un lancio previsto per la fine del 2026. Questa iniziativa rappresenta un’ulteriore diversificazione delle fonti di reddito di OpenAI e un’espansione nel mercato hardware.

    Il Futuro Economico di OpenAI: Tra Crescita e Sostenibilità

    Il percorso di OpenAI verso la redditività è ancora in divenire. Nonostante la rapida crescita del fatturato, l’azienda prevede di diventare cash-positive solo entro il 2029, con un fatturato previsto di 125 miliardi di dollari. I costi elevati associati ai data center e alle GPU (Graphics Processing Units) rappresentano una sfida significativa per la redditività di OpenAI.

    La capacità di OpenAI di bilanciare la crescita rapida con la sostenibilità finanziaria sarà fondamentale per il suo successo a lungo termine. L’azienda dovrà continuare a innovare e a espandersi in nuovi mercati, gestendo al contempo i costi operativi e garantendo un flusso di cassa positivo.

    Amici, riflettiamo un attimo su cosa significa tutto questo. OpenAI, con la sua crescita esponenziale, ci mostra quanto l’intelligenza artificiale stia diventando pervasiva. Ma cosa c’è dietro a tutto questo successo? Un concetto fondamentale è il machine learning, ovvero la capacità di un sistema di apprendere dai dati senza essere esplicitamente programmato. ChatGPT, ad esempio, è stato addestrato su enormi quantità di testo per poter generare risposte coerenti e pertinenti.

    E se volessimo spingerci oltre? Potremmo parlare di transfer learning, una tecnica avanzata che permette di utilizzare un modello addestrato per un compito specifico e adattarlo a un compito diverso ma correlato. Immaginate di addestrare un modello per riconoscere immagini di gatti e poi utilizzarlo, con qualche modifica, per riconoscere immagini di cani. Questo non solo accelera il processo di apprendimento, ma permette anche di ottenere risultati migliori con meno dati.

    La domanda che sorge spontanea è: come possiamo sfruttare al meglio queste tecnologie per migliorare la nostra vita e il nostro lavoro? E quali sono i rischi da considerare? La risposta, come spesso accade, non è semplice, ma è fondamentale continuare a esplorare e a sperimentare per comprendere appieno il potenziale dell’intelligenza artificiale.

  • Mondiale per club 2025: la tecnologia rivoluzionerà il calcio?

    Mondiale per club 2025: la tecnologia rivoluzionerà il calcio?

    Il palcoscenico del calcio mondiale si prepara a una trasformazione epocale con l’avvento del Mondiale per Club FIFA 2025, in programma negli Stati Uniti dal 14 giugno al 13 luglio. Questa edizione non sarà solo una vetrina per le migliori squadre del mondo, ma anche un laboratorio di innovazioni tecnologiche destinate a ridefinire l’esperienza di gioco per giocatori, arbitri e tifosi. L’obiettivo primario è chiaro: incrementare la trasparenza, l’efficienza e il coinvolgimento del pubblico, portando il calcio nell’era digitale.

    Innovazioni Chiave: Dalle Bodycam all’Intelligenza Artificiale

    Tra le numerose novità introdotte, spicca l’adozione di bodycam per gli arbitri. Per la prima volta, i direttori di gara indosseranno telecamere che registreranno in soggettiva le loro azioni e decisioni. Queste immagini, trasmesse in diretta da DAZN, offriranno agli spettatori una prospettiva inedita e immersiva sul processo decisionale arbitrale. Parallelamente, a bordo campo, la trasparenza delle decisioni VAR sarà garantita dalla proiezione in tempo reale sui maxi-schermi degli stadi delle stesse immagini visionate dagli arbitri. Questa misura, già collaudata in altri sport, permetterà ai tifosi presenti di seguire da vicino il ragionamento che porta alle decisioni chiave.

    Sotto il profilo tecnologico, la FIFA ha deciso di introdurre una versione potenziata del fuorigioco semi-automatico, già impiegata in competizioni passate. Questo sistema all’avanguardia si avvale di una rete di videocamere e sensori integrati nel pallone, coadiuvati da algoritmi di intelligenza artificiale sviluppati in collaborazione con Hawk-Eye. L’obiettivo è duplice: ridurre i tempi di attesa e aumentare la precisione delle decisioni. L’intelligenza artificiale monitorerà la posizione di ciascun giocatore e del pallone per segnalare automaticamente all’arbitro, in tempo reale, casi di evidente fuorigioco. Tuttavia, nei casi più complessi e controversi, l’intervento del VAR rimarrà fondamentale. Un’ulteriore novità riguarda l’implementazione di un dispositivo tablet per le sostituzioni, destinato a rimpiazzare il tradizionale scambio di fogli. Questo strumento consentirà alle squadre di gestire le sostituzioni in tempo reale, offrendo una chiara visuale delle opzioni disponibili e ottimizzando la comunicazione tra panchina e ufficiali di gara.

    Infine, per la prima volta in un torneo FIFA, una vasta gamma di dati di gioco sarà raccolta automaticamente tramite sistemi di tracciamento e algoritmi. Questi dati forniranno analisi più approfondite e aggiornate durante gli incontri, offrendo spunti preziosi per allenatori, giocatori e commentatori. Secondo Mattias Grafström, Segretario Generale della FIFA, queste innovazioni rappresentano un passo naturale per un torneo che punta all’eccellenza. Pierluigi Collina, Presidente della Commissione Arbitri FIFA, ha sottolineato il valore storico dell’iniziativa, evidenziando come tecnologie e trasparenza siano la chiave per migliorare la comprensione e l’equità delle decisioni arbitrali.

    L’Impatto dell’Intelligenza Artificiale sul Fuorigioco

    L’implementazione dell’intelligenza artificiale nel rilevamento del fuorigioco rappresenta un punto di svolta significativo. Il sistema monitorerà costantemente la posizione di ogni giocatore e del pallone, inviando automaticamente segnalazioni in tempo reale alla squadra arbitrale in caso di posizione irregolare manifesta. Questo approccio promette di accelerare notevolmente il processo decisionale, riducendo i tempi di attesa e minimizzando le interruzioni del gioco. Tuttavia, è fondamentale sottolineare che, nelle situazioni più complesse e ambigue, l’assistenza video all’arbitrato (VAR) continuerà a svolgere un ruolo cruciale nella convalida delle informazioni fornite dall’intelligenza artificiale.

    La FIFA ha inoltre reso noto che il pubblico presente negli stadi potrà visualizzare sui maxischermi le medesime immagini esaminate dagli ufficiali di gara durante l’analisi video, promuovendo così una maggiore chiarezza e comprensione delle determinazioni prese. Questa iniziativa, unita all’utilizzo delle bodycam da parte degli arbitri, mira a fornire una visione più completa e coinvolgente del processo decisionale arbitrale. L’introduzione di un tablet per le sostituzioni rappresenta un’ulteriore innovazione volta a snellire e organizzare il processo di sostituzione, sostituendo i tradizionali documenti cartacei e le comunicazioni manuali.

    Verso un Futuro Tecnologico: Prospettive e Riflessioni

    Il Mondiale per Club 2025 si preannuncia come un evento spartiacque, destinato a segnare una nuova era per il calcio. L’integrazione di tecnologie avanzate come l’intelligenza artificiale, le bodycam e i tablet digitali promette di migliorare significativamente l’esperienza di gioco per tutti gli attori coinvolti. Tuttavia, è fondamentale affrontare questa trasformazione con equilibrio e consapevolezza, garantendo che la tecnologia rimanga al servizio del gioco e non lo snaturi. L’obiettivo finale deve essere quello di preservare l’essenza del calcio, esaltandone al contempo la spettacolarità e l’equità.

    Trasparenza e Tecnologia: Un Nuovo Capitolo per il Calcio

    L’introduzione di queste tecnologie rappresenta un passo audace verso un calcio più trasparente e tecnologicamente avanzato. La possibilità per i tifosi di vedere le stesse immagini del VAR e di avere una prospettiva in prima persona attraverso le bodycam degli arbitri, promette di ridurre le controversie e aumentare la fiducia nelle decisioni arbitrali. Allo stesso tempo, l’intelligenza artificiale nel fuorigioco e i tablet per le sostituzioni mirano a rendere il gioco più fluido ed efficiente. Resta da vedere come queste innovazioni influenzeranno il gioco nel lungo termine, ma l’obiettivo dichiarato è quello di migliorare l’esperienza calcistica per tutti.

    Amici appassionati di calcio, riflettiamo un attimo su quanto l’intelligenza artificiale stia entrando nelle nostre vite, e ora anche nel nostro sport preferito. Una nozione base di IA che si applica qui è il “machine learning”, ovvero la capacità di un sistema di apprendere dai dati e migliorare le proprie prestazioni nel tempo. Nel caso del fuorigioco, l’IA analizza continuamente le posizioni dei giocatori e del pallone, affinando la sua capacità di individuare le infrazioni con sempre maggiore precisione.

    Ma c’è di più. Un concetto avanzato come le “reti neurali convoluzionali” (CNN) potrebbe essere utilizzato per analizzare le immagini delle telecamere e identificare schemi complessi che sfuggono all’occhio umano. Immaginate un futuro in cui l’IA non solo rileva il fuorigioco, ma prevede anche le azioni dei giocatori, aiutando gli arbitri a prevenire situazioni pericolose.

    Tuttavia, sorge spontanea una domanda: fino a che punto vogliamo affidarci alla tecnologia? Non rischiamo di perdere quel pizzico di umanità e di imprevedibilità che rende il calcio così affascinante? Forse la risposta sta nel trovare un equilibrio, un punto d’incontro tra l’efficienza della macchina e l’intuizione dell’uomo.

  • Sfrutta l’AI: Strategie vincenti per startup nel 2025

    Sfrutta l’AI: Strategie vincenti per startup nel 2025

    AI

    Nel fervente ecosistema dell’intelligenza artificiale, caratterizzato da un’abbondanza di API, modelli e un’iperbole mediatica costante, emerge una domanda cruciale per i fondatori di startup: come trasformare questa potenza di fuoco tecnologica in un prodotto funzionale e, soprattutto, vendibile? Hao Sang, membro del team Startups Go-to-Market di OpenAI, si propone di rispondere a questa domanda.

    Durante il TechCrunch Sessions: AI, tenutosi il 5 giugno presso la Zellerbach Hall a Berkeley, California, Sang ha analizzato i requisiti fondamentali per costruire un motore di intelligenza artificiale solido all’interno di una startup. Il suo intervento ha spaziato dalle prime fasi di integrazione fino al dimensionamento responsabile su modelli all’avanguardia. Sang collabora direttamente con i fondatori, supportandoli nella traduzione della tecnologia di base in valore pratico. In OpenAI, il suo focus va oltre l’aspetto puramente tecnico, aiutando le aziende a definire architetture, strategie di monetizzazione e product-market fit in un contesto in rapida evoluzione.

    Prima di entrare in OpenAI, Sang ha supportato la crescita di startup fintech presso Stripe e ha ricoperto ruoli GTM (Go-to-Market) presso OpenPhone e Slack. Questa combinazione di profonda conoscenza tecnologica e competenza nel go-to-market gli conferisce una prospettiva unica per distinguere ciò che è realmente efficace dal rumore di fondo. Durante la sua sessione, Sang ha illustrato i modelli che sta osservando nelle principali startup di intelligenza artificiale, evidenziando le aree in cui stanno trovando maggiore leva, come stanno valutando il rapporto costo-performance e quali errori tendono a emergere quando i team si muovono troppo velocemente senza una solida base tecnica o di distribuzione.

    Strategie e sfide per le startup AI

    L’intervento di Sang ha offerto spunti non solo sull’utilizzo della piattaforma OpenAI, ma anche su come valutare criticamente il ruolo dell’intelligenza artificiale all’interno della propria offerta di prodotti. Per i fondatori, questa è stata un’opportunità per ascoltare un esperto con una visione ampia del panorama e con l’esperienza di aver consigliato numerosi costruttori. Il suo intervento è stato particolarmente tempestivo, poiché le startup sono in competizione per superare i semplici wrapper e creare sistemi differenziati basati su agenti. Questo evento ha fatto parte di una giornata ricca di interventi di leader di Google Cloud, Anthropic, Cohere, OpenAI e molti altri, approfondendo le strategie per le startup, le infrastrutture e gli strumenti di nuova generazione che stanno attivamente rimodellando il modo in cui i prodotti vengono costruiti e finanziati.

    La partecipazione al TechCrunch Sessions: AI ha offerto un’opportunità unica per i partecipanti di entrare in contatto con esperti del settore e di acquisire conoscenze preziose per la costruzione di prodotti di successo basati sull’intelligenza artificiale. L’evento ha sottolineato l’importanza di una solida base tecnica, di una strategia di go-to-market ben definita e di una valutazione critica del ruolo dell’IA all’interno della propria offerta di prodotti.

    Dettagli sull’evento e i relatori

    L’evento TechCrunch Sessions: AI del 5 giugno ha visto la partecipazione di figure di spicco del settore, tra cui Hao Sang di OpenAI, che ha condiviso la sua esperienza nel supportare le startup nella costruzione di motori di intelligenza artificiale efficaci. La sua presentazione si è concentrata sulle sfide e le opportunità che le startup affrontano nell’integrazione dell’IA nei loro prodotti, offrendo consigli pratici su architettura, monetizzazione e product-market fit. Sang ha sottolineato l’importanza di una solida base tecnica e di una strategia di go-to-market ben definita per il successo delle startup AI.

    Oltre a Sang, l’evento ha visto la partecipazione di leader di Google Cloud, Anthropic, Cohere e altre aziende di spicco del settore. I relatori hanno condiviso le loro intuizioni sulle ultime tendenze dell’IA, le infrastrutture necessarie per supportare lo sviluppo di prodotti AI e le strategie per il finanziamento di startup AI. L’evento ha offerto ai partecipanti un’opportunità unica per entrare in contatto con esperti del settore, acquisire conoscenze preziose e scoprire le ultime innovazioni nel campo dell’intelligenza artificiale.

    Il TechCrunch Sessions: AI ha rappresentato un’occasione imperdibile per chiunque fosse interessato a costruire prodotti di successo basati sull’intelligenza artificiale. L’evento ha fornito ai partecipanti le conoscenze, le competenze e le connessioni necessarie per affrontare le sfide e sfruttare le opportunità del settore AI in rapida evoluzione. La partecipazione di relatori di spicco, come Hao Sang di OpenAI, ha garantito un’esperienza di apprendimento di alta qualità e ha offerto ai partecipanti una visione approfondita delle strategie e delle best practice per la costruzione di startup AI di successo.

    Navigare il Futuro dell’IA: Consigli Pratici e Riflessioni

    L’intervento di Hao Sang al TechCrunch Sessions: AI ha evidenziato un punto cruciale: l’IA non è solo tecnologia, ma anche strategia. Comprendere come integrare l’IA in un prodotto in modo efficace e redditizio è fondamentale per il successo di una startup. Questo richiede una profonda conoscenza del mercato, una solida base tecnica e una capacità di adattamento rapida ai cambiamenti del settore.

    Un concetto fondamentale nell’IA, rilevante per questo contesto, è il transfer learning. Questa tecnica permette di utilizzare modelli pre-addestrati su grandi quantità di dati per risolvere problemi specifici con meno dati di addestramento. Nel caso delle startup, il transfer learning può ridurre significativamente i costi e i tempi di sviluppo, consentendo loro di concentrarsi sull’innovazione e sulla differenziazione del prodotto.

    Un concetto più avanzato è l’apprendimento per rinforzo (Reinforcement Learning). Questa tecnica permette a un agente di imparare a prendere decisioni in un ambiente dinamico, ricevendo feedback sotto forma di ricompense o penalità. Nel contesto delle startup AI, l’apprendimento per rinforzo può essere utilizzato per ottimizzare le strategie di pricing, personalizzare l’esperienza utente e automatizzare i processi decisionali complessi.

    In definitiva, il successo nell’IA non dipende solo dalla tecnologia, ma anche dalla capacità di comprendere il contesto, di adattarsi ai cambiamenti e di utilizzare le tecniche più appropriate per risolvere i problemi specifici. L’intervento di Hao Sang ci invita a riflettere su come possiamo utilizzare l’IA in modo strategico per creare valore e costruire un futuro migliore.

    *ISTRUZIONI PER L’IMMAGINE:

    Sostituisci TOREPLACE con il seguente prompt:
    “Un’immagine iconica e metaforica che rappresenta le principali entità discusse nell’articolo: una startup AI, un modello di intelligenza artificiale e una figura che simboleggia la guida strategica.

    *Startup AI: Rappresentata come una giovane pianta che germoglia da un terreno fertile, simboleggiando la crescita e il potenziale. Le radici della pianta sono intrecciate con circuiti elettronici, indicando la base tecnologica.
    *Modello di Intelligenza Artificiale: Visualizzato come una nebulosa luminosa che avvolge la pianta, rappresentando la potenza di calcolo e l’apprendimento continuo. La nebulosa è composta da forme geometriche astratte che suggeriscono algoritmi e dati.
    *Guida Strategica (Hao Sang):* Simboleggiata da una bussola antica e stilizzata, che indica la direzione e la navigazione attraverso il complesso panorama dell’IA. La bussola è posizionata in modo da guidare la crescita della pianta verso la luce.

    Lo stile dell’immagine dovrebbe essere ispirato all’arte naturalista e impressionista, con particolare attenzione alle metafore visive. Utilizzare una palette di colori caldi e desaturati, come ocra, terra di Siena bruciata, verde oliva e blu grigiastro, per creare un’atmosfera sognante e riflessiva. L’immagine non deve contenere testo e deve essere semplice, unitaria e facilmente comprensibile.”

  • Whatsapp: come cambierà la tua esperienza con le nuove funzioni?

    Whatsapp: come cambierà la tua esperienza con le nuove funzioni?

    AI Studio segna una significativa evoluzione nell’assimilazione dell’intelligenza artificiale nel quotidiano degli individui. Attualmente in fase sperimentale riservata a specifici beta tester, questa innovativa funzione permette la facile realizzazione di chatbot personalizzati con una metodologia intuitiva priva della necessità di abilità informatiche avanzate. Attraverso un’interfaccia user-friendly, gli utenti possono modellare le caratteristiche distintive del loro assistente virtuale a partire dalla personalità, passando per il tono fino ad arrivare all’aspetto visivo.
    L’elemento cruciale della personalizzazione è ciò che rende AI Studio straordinario: attraverso diverse opzioni disponibili, ciascun utente può determinare aspetti come lo stile comunicativo (che può oscillare fra ironia ed empatia) e scegliere un’immagine che ne rifletta l’identità visiva. Il risultato finale è immediatamente operativo: i chatbot sono inizialmente privati e accessibili esclusivamente ai loro ideatori; nonostante ciò, si presenta anche l’opportunità — mediante la creazione di link dedicati — di diffusione delle opere concepite. Questa abilità di condivisione amplia le opportunità per influencer, formatori e aziende, così come per i creatori digitali intenzionati a offrire contenuti o servizi automatizzati da prospettive fresche e innovative.

    Sostituisci TOREPLACE con: “Create an iconic and symbolic image representing WhatsApp’s AI Studio. The image should feature a stylized speech bubble, representing communication, intertwined with a neural network pattern, symbolizing artificial intelligence. A customizable avatar icon should be subtly placed within the speech bubble, indicating personalization. The style should be inspired by naturalistic and impressionistic art, with a focus on warm, desaturated colors. The speech bubble should be depicted as a blooming flower, symbolizing growth and potential. The neural network should resemble a vine, subtly wrapping around the speech bubble, representing the interconnectedness of AI. The avatar icon should be a simple, abstract figure, suggesting the user’s ability to customize their AI assistant. The overall composition should be simple, unified, and easily understandable, with no text present.”

    Condivisione degli Aggiornamenti di Stato: Maggiore Controllo e Visibilità

    Contemporaneamente all’implementazione di AI Studio, il popolare servizio WhatsApp è impegnato nel collaudo di una novità riguardante i meccanismi per condividere gli aggiornamenti dello stato. Grazie a questa funzionalità innovativa, gli utenti avranno l’opportunità di fornire il proprio consenso alla ricondivisione e all’inoltro delle loro informazioni personali relative allo stato stesso, permettendo così un monitoraggio più dettagliato della propagazione del materiale condiviso.

    Fino a oggi, infatti, le possibilità erano circoscritte ai soli contatti direttamente coinvolti o espressamente nominati nello status postato. Con quest’ultima evoluzione tecnologica proposta da WhatsApp, si aprono scenari nei quali sarà possibile optare affinché anche coloro che non sono stati direttamente contrassegnati possano trasmettere tale contenuto ad altri soggetti nella loro rete sociale. Tale funzionalità si rivela particolarmente vantaggiosa per quegli utenti intenzionati a estendere l’impatto comunicativo delle proprie creazioni ben oltre i confini della lista abituale dei contatti memorizzati: pensiamo alle necessarie promozioni commerciali oppure alle campagne sociali significative.

    È importante sottolineare come, pur concedendo questa maggiore libertà nella condivisione degli stati tramite inoltri multipli, WhatsApp sottolinea che ciascun processo attinente al forwarding sarà effettuato in maniera riservata e tutelata da misure anonime adeguate: chi riceve lo stato riciclato infatti non disporrà dell’identificazione dell’autore originario né tantomeno potrà accedere al numero telefonico o all’immagine profilo del medesimo utilizzatore. Solo l’autore originario dello stato avrà il privilegio di ricevere una notifica quando uno dei suoi contatti decida di inoltrarlo. In aggiunta a ciò, se tale stato viene condiviso nuovamente da un altro utente, solo quest’ultimo sarà informato della ricondivisione, mentre l’autore originale non verrà notificato.

    Un Futuro di Interazione Personalizzata e Condivisione Controllata

    L’ingresso del sistema AI Studio, insieme alla sua innovativa funzionalità dedicata alla condivisione degli aggiornamenti statutari, rappresenta una vera e propria svolta per WhatsApp. La creazione di chatbot personalizzati, infatti, costituisce un passo avanti significativo nell’ambito dell’interazione umana attraverso le tecnologie digitali. Allo stesso tempo, il nuovo meccanismo che consente agli utenti un controllo dettagliato sulla privacy dei propri stati favorisce un utilizzo più consapevole della piattaforma. Attualmente in fase beta test, queste implementazioni sono destinate a modificare radicalmente l’esperienza del fruitore finale, avvicinando ulteriormente WhatsApp alle esigenze diversificate dei suoi utilizzatori globali. Il lancio dell’AI Studio si prevede su entrambi i sistemi operativi principali: Android e iOS.

    Riflettiamo ora sull’importanza crescente dell’intelligenza artificiale nel quotidiano; essa è già presente sotto forma concreta attraverso NLP (Natural Language Processing), specializzazione cruciale dell’IA capace di interpretare ed elaborare il linguaggio umano da parte delle macchine. Immaginate se queste soluzioni chatbot fossero sviluppate ulteriormente utilizzando metodologie come il Reinforcement Learning: ciò permetterebbe loro non solo d’imparare a interagire meglio con gli esseri umani ma anche d’adattarsi proattivamente ai nostri comportamenti ed aspettative! Il futuro della comunicazione è qui, e sta bussando alla porta dei nostri smartphone.

  • Allarme lavoro: l’IA rimpiazzerà davvero milioni di posti?

    Allarme lavoro: l’IA rimpiazzerà davvero milioni di posti?

    Una Trasformazione Inevitabile

    L’avvento dell’Intelligenza Artificiale (IA) sta ridefinendo il panorama lavorativo globale, portando con sé sia opportunità che sfide. Se da un lato l’IA promette di semplificare processi e aumentare l’efficienza, dall’altro solleva preoccupazioni concrete riguardo alla potenziale sostituzione di figure professionali tradizionali. Il dibattito è acceso e le implicazioni sono vaste, toccando settori diversi e ponendo interrogativi cruciali sul futuro del lavoro. L’adozione crescente di sistemi automatizzati e algoritmi intelligenti sta già manifestando i suoi effetti, con alcune categorie di lavoratori che si trovano a fronteggiare la realtà di una competizione sempre più agguerrita con le macchine.

    Settori a Rischio: Analisi delle Professioni Più Vulnerabili

    Tra i settori più esposti alla trasformazione indotta dall’IA, spiccano quelli che prevedono mansioni ripetitive e facilmente automatizzabili. Gli addetti ai call center, ad esempio, sono tra i primi a sperimentare l’impatto di chatbot e sistemi di risposta automatica sempre più sofisticati. Questi strumenti, capaci di gestire un numero elevato di interazioni simultaneamente e di apprendere dalle conversazioni, stanno gradualmente sostituendo gli operatori umani, riducendo i costi per le aziende e aumentando la velocità di risposta. Anche il settore impiegatizio, con mansioni legate all’inserimento dati, alla gestione di documenti e alla contabilità di base, è sempre più automatizzato grazie a software intelligenti in grado di svolgere queste attività in modo più rapido e preciso. Il commercio, in particolare le attività di vendita al dettaglio e di assistenza clienti, sta subendo una trasformazione simile, con l’introduzione di sistemi di raccomandazione personalizzati, assistenti virtuali e casse automatiche che riducono la necessità di personale umano.

    Le Implicazioni Economiche e Sociali: Un’Analisi Approfondita

    La sostituzione di posti di lavoro da parte dell’IA solleva questioni economiche e sociali di grande rilevanza. La perdita di occupazione in alcuni settori può portare a un aumento della disoccupazione e a una polarizzazione del mercato del lavoro, con una crescente domanda di competenze specialistiche legate all’IA e una diminuzione delle opportunità per i lavoratori con qualifiche inferiori. Questo scenario richiede un intervento attivo da parte dei governi e delle istituzioni per garantire una transizione equa e sostenibile verso un’economia sempre più digitalizzata. È necessario investire in programmi di riqualificazione professionale, promuovere l’istruzione STEM (Scienza, Tecnologia, Ingegneria e Matematica) e sostenere la creazione di nuove opportunità di lavoro in settori emergenti. Inoltre, è fondamentale ripensare il sistema di welfare per garantire un reddito di base a coloro che perdono il lavoro a causa dell’automazione e per affrontare le sfide legate alla crescente disuguaglianza economica.

    Oltre la Sostituzione: L’IA come Strumento di Potenziamento Umano

    Nonostante le preoccupazioni legate alla perdita di posti di lavoro, è importante sottolineare che l’IA può anche rappresentare un’opportunità per migliorare le condizioni di lavoro e aumentare la produttività. In molti settori, l’IA può essere utilizzata per automatizzare compiti ripetitivi e noiosi, liberando i lavoratori da mansioni gravose e consentendo loro di concentrarsi su attività più creative e strategiche. Ad esempio, nel settore sanitario, l’IA può essere utilizzata per diagnosticare malattie, personalizzare trattamenti e monitorare i pazienti a distanza, migliorando l’efficacia delle cure e riducendo il carico di lavoro dei medici e degli infermieri. Nel settore manifatturiero, l’IA può essere utilizzata per ottimizzare i processi produttivi, ridurre gli sprechi e migliorare la qualità dei prodotti, aumentando la competitività delle aziende e creando nuove opportunità di lavoro. L’IA, quindi, non deve essere vista solo come una minaccia, ma anche come uno strumento potente per potenziare le capacità umane e creare un futuro del lavoro più prospero e sostenibile.

    Conclusione: Navigare il Futuro del Lavoro nell’Era dell’IA

    L’impatto dell’Intelligenza Artificiale sul mercato del lavoro è un fenomeno complesso e in continua evoluzione. Affrontare le sfide e sfruttare le opportunità che l’IA offre richiede una visione strategica, un impegno costante all’innovazione e una collaborazione tra governi, imprese e lavoratori. È fondamentale investire nell’istruzione e nella formazione, promuovere l’adattabilità e la resilienza e garantire che i benefici dell’IA siano distribuiti equamente tra tutti i membri della società. Solo così potremo costruire un futuro del lavoro in cui l’IA sia al servizio dell’umanità, creando nuove opportunità di crescita e prosperità per tutti.

    Parlando di Intelligenza Artificiale, un concetto fondamentale da comprendere è il Machine Learning. Immagina di insegnare a un bambino a riconoscere un gatto: non gli dai una lista infinita di caratteristiche, ma gli mostri tanti esempi di gatti diversi. Il Machine Learning funziona in modo simile: si “nutre” un algoritmo con una grande quantità di dati, e l’algoritmo impara a riconoscere schemi e a fare previsioni senza essere esplicitamente programmato per farlo.

    Un concetto più avanzato è il Reinforcement Learning. Pensa a un cane che impara a fare un trucco: lo premi ogni volta che si avvicina al comportamento desiderato. Il Reinforcement Learning funziona in modo simile: un agente (ad esempio, un robot) impara a prendere decisioni in un ambiente per massimizzare una ricompensa. Questo approccio è particolarmente utile in situazioni complesse dove non è possibile definire regole precise.

    La rivoluzione dell’IA ci pone di fronte a interrogativi profondi: come possiamo garantire che l’IA sia utilizzata in modo etico e responsabile? Come possiamo prepararci a un futuro in cui il lavoro sarà sempre più automatizzato? Queste sono domande che richiedono una riflessione collettiva e un impegno concreto da parte di tutti.

    *Prompt per l’immagine:

    Un’immagine iconica e metaforica che rappresenta l’impatto dell’Intelligenza Artificiale sul mondo del lavoro. Visualizzare tre figure principali:

    1. Un ingranaggio meccanico: Rappresenta l’automazione e la sostituzione del lavoro umano. L’ingranaggio è leggermente arrugginito e usurato, simboleggiando la obsolescenza di alcune professioni.
    2.
    Una figura umana stilizzata: Rappresenta i lavoratori, con un’espressione pensierosa e adattabile. La figura è parzialmente fusa con circuiti elettronici, indicando l’integrazione tra uomo e macchina.
    3.
    Un albero stilizzato con radici profonde e rami che si estendono verso l’alto:* Simboleggia la crescita di nuove competenze e opportunità nel settore dell’IA. Le foglie dell’albero sono formate da simboli di codice binario.

    Lo stile dell’immagine deve essere ispirato all’arte naturalista e impressionista, con una palette di colori caldi e desaturati (ocra, terra di Siena, verde oliva). L’immagine non deve contenere testo e deve essere semplice, unitaria e facilmente comprensibile.

  • L’intelligenza artificiale non capisce il ‘no’: implicazioni e limiti

    L’intelligenza artificiale non capisce il ‘no’: implicazioni e limiti

    Ecco l’articolo riscritto con le frasi parafrasate radicalmente:

    —–
    Un Problema Emergente

    Nel panorama in rapida evoluzione dell’intelligenza artificiale, emergono sfide inaspettate che mettono in discussione la sua effettiva capacità di replicare l’intelletto umano. Un recente studio condotto da ricercatori del Massachusetts Institute of Technology (MIT) ha evidenziato una difficoltà sorprendente: l’incapacità delle IA, anche quelle più sofisticate, di comprendere appieno il concetto di negazione, in particolare la parola “no”. Questa lacuna, apparentemente banale, potrebbe avere implicazioni significative, soprattutto in settori critici come la medicina.

    La ricerca si è concentrata sulla valutazione delle capacità dei Vision Language Model (VLM), modelli di IA progettati per interpretare sia testi che immagini. I ricercatori hanno creato un database denominato NegBench, composto da circa 80.000 coppie di immagini, ciascuna raffigurando la presenza o l’assenza di un determinato oggetto, accompagnate da didascalie descrittive. Questo strumento è stato utilizzato per testare le prestazioni di diversi VLM, tra cui dieci versioni del modello Clip AI di OpenAI e un modello recente di Apple chiamato AIMV2.

    Nel primo esperimento, ai modelli è stato chiesto di identificare immagini contenenti un oggetto specifico ma non un altro (ad esempio, immagini con tavoli ma senza sedie). I risultati hanno rivelato una disparità significativa: mentre i modelli hanno raggiunto una precisione media dell’80% nel riconoscimento degli oggetti presenti, la loro accuratezza è scesa al 65% nell’identificare le immagini in base agli oggetti assenti.

    Un secondo esperimento ha coinvolto due modelli specificamente addestrati per l’interpretazione di immagini mediche. È stato chiesto loro di selezionare la didascalia più appropriata per descrivere una radiografia, scegliendo tra due opzioni che includevano sia caratteristiche visibili che assenti (ad esempio, la presenza o l’assenza di segni di polmonite). In questo caso, il modello migliore ha raggiunto un’accuratezza di appena il 40% quando era presente una negazione, un risultato sorprendente considerando la semplicità del compito per un medico umano.

    Secondo i ricercatori del MIT, il problema risiede nei modelli di apprendimento utilizzati per addestrare le IA, in particolare i trasformatori sviluppati da Google nel 2017. Questi modelli sono progettati per riconoscere il significato specifico dei termini in relazione al contesto in cui compaiono. Tuttavia, la natura indipendente dal contesto di negazioni come “no” e “non” rende difficile per questi modelli interpretarne il significato, portandoli spesso a ignorarle.

    PROMPT: Crea un’immagine iconica in stile naturalista e impressionista con una palette di colori caldi e desaturati. L’immagine deve raffigurare una radiografia stilizzata (in stile impressionista) con un’ombra a forma di punto interrogativo che la oscura parzialmente (metafora dell’incertezza diagnostica). Accanto, un chip di silicio stilizzato (in stile naturalista) con un’etichetta “NO” in rosso sbiadito (metafora della difficoltà di comprensione della negazione). Lo sfondo deve essere sfumato e astratto, evocando l’idea di un ambiente medico e tecnologico. L’immagine non deve contenere testo esplicito.

    Quando l’IA Aiuta e Quando Ostacola: Una Guida Pratica

    L’intelligenza artificiale è diventata una presenza pervasiva in molti aspetti della nostra vita, ma la sua utilità non è sempre garantita. Un articolo del MIT Technology Review del 2024 ha evidenziato diversi casi in cui strumenti e chatbot basati sull’IA si sono rivelati inefficaci o addirittura controproducenti. Di fronte a questi risultati contrastanti, sorge una domanda fondamentale: come possiamo determinare quando affidarci all’IA e quando è preferibile fare affidamento sulle nostre capacità umane?

    In generale, è consigliabile utilizzare l’IA con cautela in situazioni che richiedono creatività originale, decisioni etiche o morali complesse, o la capacità di cogliere sfumature e significati impliciti. Allo stesso modo, è bene essere scettici nei confronti delle soluzioni proposte dall’IA quando sono richieste competenze specialistiche e precisione assoluta. Questo perché l’IA tende a riprodurre schemi appresi piuttosto che generare idee veramente originali, e manca di una vera comprensione dei valori umani e del contesto culturale.

    Tuttavia, l’IA eccelle in determinate aree. È particolarmente efficace nell’elaborazione di grandi quantità di dati, nell’identificazione di schemi nascosti e nell’esecuzione di attività standardizzate e ripetitive. La sua attitudine a cercare e raccogliere informazioni da un vasto numero di fonti la rende altresì uno strumento valido per supportare la ricerca.

    Ethan Mollick, co-direttore dell’AI generative Lab alla Wharton University, ha stilato un elenco di situazioni in cui l’IA può fare la differenza:

    • Generare un gran numero di idee: L’IA può fornire centinaia di idee senza ripetizioni, ampliando notevolmente il ventaglio di possibilità da considerare.
    • Quando si è esperti in un determinato ambito: La conoscenza pregressa consente di valutare meglio la validità e il valore aggiunto degli output forniti dall’IA.
    • Riepilogare volumi elevati di dati: L’IA possiede la capacità di distillare contenuti estesi, purché i rischi associati a eventuali imprecisioni siano contenuti.
    • Trasporre contenuti tra ambiti differenti: L’IA può rielaborare materiale complesso in formati più comprensibili per interlocutori e contesti diversi.
    • Superare i blocchi creativi: L’IA può offrire spunti su qualsiasi argomento, fungendo da editor e dizionario dei sinonimi e contrari.
    • Avviare progetti imprenditoriali multidisciplinari: L’IA può fungere da co-fondatore virtuale, offrendo mentorship e colmando le lacune su vari aspetti del business.
    • Svolgere compiti che l’IA fa meglio degli umani: Analisi di grandi dataset, individuazione precoce di tumori nelle immagini diagnostiche, traduzione di testi e giochi strategici.

    Al contrario, è meglio evitare l’IA quando si devono apprendere nuovi concetti, quando lo sforzo è parte essenziale del processo, quando serve massima precisione e quando non si comprendono i suoi potenziali fallimenti.

    I Limiti del Machine Learning: Pregiudizi e Sfide Etiche

    Il machine learning, una branca fondamentale dell’intelligenza artificiale, presenta una serie di limiti e sfide che devono essere affrontati per garantire un’IA più etica e inclusiva. Uno dei problemi principali è l’influenza di bias e pregiudizi presenti nei dati di addestramento. Se i dati riflettono disuguaglianze sociali o stereotipi, l’IA apprenderà e perpetuerà questi bias, portando a risultati discriminatori.

    Ad esempio, un sistema di riconoscimento facciale addestrato principalmente su immagini di persone bianche potrebbe avere difficoltà a riconoscere volti di persone di altre etnie. Allo stesso modo, un algoritmo utilizzato per valutare le candidature di lavoro potrebbe favorire candidati di un determinato genere o provenienza geografica se i dati storici riflettono tali preferenze.

    Per mitigare questi problemi, è necessario prestare attenzione alla qualità e alla diversità dei dati di addestramento, nonché sviluppare tecniche per identificare e correggere i bias negli algoritmi. Inoltre, è fondamentale promuovere la trasparenza e la responsabilità nell’utilizzo dell’IA, in modo da poter individuare e affrontare eventuali conseguenze negative.

    Oltre l’Ottimismo Sconsiderato: L’IA e la Complessità dell’Umanità

    L’amministratore delegato di OpenAI, Sam Altman, ha espresso una visione ottimistica sull’IA, immaginando un futuro in cui questa tecnologia risolverà tutti i problemi dell’umanità e inaugurerà un’era di abbondanza e prosperità condivisa. Tuttavia, questa visione ignora la complessità della natura umana e la nostra capacità di creare problemi anche in presenza di soluzioni tecnologiche.

    Anche se l’IA fosse in grado di sviluppare cure per tutte le malattie, risolvere la crisi climatica e creare una società più equa, non è detto che saremmo in grado di applicare queste soluzioni in modo efficace. La storia ci insegna che spesso siamo noi stessi il nostro peggior nemico, e che i progressi tecnologici non sempre si traducono in un miglioramento della condizione umana.

    Come ha scritto William Gibson, “il futuro è già qui, è solo che non è distribuito uniformemente”. L’IA potrebbe generare una ricchezza senza precedenti, ma non c’è garanzia che questa ricchezza sarà distribuita in modo equo. Inoltre, l’automazione del lavoro potrebbe portare alla disoccupazione di massa, creando nuove sfide sociali ed economiche.

    È importante affrontare l’IA con un sano scetticismo, riconoscendo sia il suo potenziale che i suoi limiti. Non dovremmo aspettarci che l’IA risolva tutti i nostri problemi, ma piuttosto utilizzarla come uno strumento per amplificare le nostre capacità e migliorare la nostra vita. Tuttavia, è fondamentale ricordare che la responsabilità ultima del nostro futuro è nelle nostre mani.

    Amici lettori, riflettiamo un attimo. L’articolo ci parla di come l’IA fatichi a comprendere la negazione. Questo ci porta a pensare a un concetto fondamentale dell’IA: il Natural Language Processing (NLP), ovvero la capacità di un computer di comprendere e generare linguaggio umano. Se l’IA ha difficoltà con una cosa apparentemente semplice come il “no”, significa che c’è ancora molta strada da fare per raggiungere una vera comprensione del linguaggio.

    E se volessimo spingerci oltre? Potremmo parlare di Reasoning under Uncertainty. Questa branca dell’IA si occupa di gestire informazioni incomplete o imprecise, proprio come accade quando l’IA deve interpretare una frase con una negazione. L’IA deve essere in grado di valutare diverse possibilità e prendere decisioni anche in assenza di certezze assolute.

    Ma la domanda più importante è: cosa significa tutto questo per noi? Significa che dobbiamo essere consapevoli dei limiti dell’IA e non affidarci ciecamente alle sue decisioni, soprattutto in contesti critici come la medicina. Dobbiamo sviluppare un pensiero critico e una capacità di giudizio che ci permettano di valutare le informazioni fornite dall’IA e prendere decisioni informate. In fondo, l’intelligenza artificiale è solo uno strumento, e come tutti gli strumenti, può essere usato bene o male. Sta a noi decidere come usarlo.

  • Scandalo nell’ia: reddit denuncia anthropic per furto di dati!

    Scandalo nell’ia: reddit denuncia anthropic per furto di dati!

    Reddit mira a ottenere un indennizzo per danni di entità imprecisata e un provvedimento inibitorio per bloccare ulteriori sfruttamenti commerciali dei suoi dati.

    In Maggio, Reddit ha concluso un accordo simile con OpenAI, i cui termini economici rimangono riservati ma che aderisce a principi comparabili di accesso regolamentato ai dati.

    Tali partnership hanno notevolmente favorito l’espansione economica di Reddit, generando un incremento notevole nel valore delle sue azioni. La legislazione che contrasta la concorrenza sleale permette inoltre di implementare in modo efficace la dottrina dell’indebito arricchimento, un aspetto particolarmente importante nel panorama dell’accumulo su vasta scala di dati per l’intelligenza artificiale.

    —–

    Reddit ha avviato un’azione legale contro Anthropic, accusando l’azienda di IA di aver eseguito oltre 100.000 accessi non autorizzati alla sua piattaforma a partire da luglio 2024. La denuncia, presentata presso la corte superiore di San Francisco, rappresenta un punto di svolta nella crescente tensione tra le piattaforme di contenuti e le aziende tecnologiche che utilizzano i dati per l’addestramento dei modelli linguistici.

    Le Accuse di Reddit Contro Anthropic

    Reddit accusa Anthropic di aver “rubato” dati di valore inestimabile per l’addestramento di chatbot come Claude. Secondo Reddit, Anthropic si presenta come un “paladino morale” nel settore dell’intelligenza artificiale, ma in realtà “ignora deliberatamente le regole” per il proprio profitto. La piattaforma di social news sostiene che i dati sottratti rappresentano una risorsa essenziale per l’addestramento dei modelli linguistici e che la “umanità di Reddit” è di un valore unico in un mondo sempre più dominato dall’intelligenza artificiale. Ben Lee, Chief Legal Officer di Reddit, ha sottolineato che le discussioni sulla piattaforma rappresentano quasi 20 anni di conversazioni umane autentiche su qualsiasi argomento immaginabile, e che queste discussioni non esistono altrove.

    Anthropic, con una valutazione di 61,5 miliardi di dollari e il sostegno di Amazon, è stata fondata nel 2021 da ex dirigenti di OpenAI. L’azienda, rinomata per il suo chatbot Claude e i suoi modelli di IA, ha sempre dichiarato di porre l’accento sulla sicurezza e sullo sviluppo responsabile dell’intelligenza artificiale. Tuttavia, Reddit sostiene che Anthropic addestri i suoi modelli sui contenuti della piattaforma almeno dal dicembre 2021, senza permesso o compenso. Un portavoce di Anthropic ha replicato alla denuncia, dichiarando che la società “non condivide le affermazioni di Reddit” e che “si difenderà con determinazione in sede giudiziaria”.

    Il Contesto Legale e le Precedenti Controversie

    La causa intentata da Reddit contro Anthropic si inserisce in un contesto legale sempre più complesso, caratterizzato da una crescente tensione tra i creatori di contenuti e gli sviluppatori di intelligenza artificiale. Non è la prima volta che Anthropic si trova al centro di polemiche per presunte violazioni di copyright. Nel 2023, tre autori hanno intentato un’azione legale collettiva, sostenendo che l’azienda avesse costruito un’attività multimiliardaria sfruttando opere protette da diritto d’autore. Sempre l’anno scorso, Universal Music ha fatto causa ad Anthropic per l’uso non autorizzato dei testi delle canzoni.

    A differenza di altri contenziosi incentrati sulla violazione del diritto d’autore, la strategia legale di Reddit si concentra su accuse di inadempimento contrattuale e concorrenza sleale, sottolineando come Anthropic abbia sistematicamente ignorato i termini di servizio della piattaforma. Reddit mira a ottenere un indennizzo per danni di entità imprecisata e un provvedimento inibitorio per bloccare ulteriori sfruttamenti commerciali dei suoi dati.

    Il Valore dei Dati di Reddit e le Strategie di Monetizzazione

    Reddit, fondata nel 2005, è una delle più grandi piattaforme di discussione online al mondo, con oltre 100 milioni di utenti attivi giornalieri distribuiti in migliaia di sottocategorie tematiche. Questa vasta raccolta di interazioni umane rappresenta una risorsa di inestimabile valore per aziende come Anthropic, costantemente alla ricerca di dati linguistici vari e di alta qualità per addestrare i modelli linguistici di grandi dimensioni (LLM).

    Conscia del valore commerciale dei propri dati, Reddit ha messo a punto una strategia di monetizzazione attraverso accordi di licenza strutturati. A febbraio 2024, la piattaforma ha stipulato un accordo con Google del valore di circa 60 milioni di dollari annui, che autorizza l’utilizzo dei suoi contenuti per l’addestramento di modelli di IA. L’intesa prevede clausole per la protezione della privacy, come l’esclusione dei contenuti eliminati dagli utenti. In Maggio, Reddit ha concluso un accordo simile con OpenAI, i cui termini economici rimangono riservati ma che aderisce a principi comparabili di accesso regolamentato ai dati. Tali partnership hanno notevolmente favorito l’espansione economica di Reddit, generando un incremento notevole nel valore delle sue azioni.

    Implicazioni Strategiche e Procedurali della Causa

    La controversia giudiziaria tra Reddit e Anthropic evidenzia le tensioni in gioco ai massimi livelli dell’intelligenza artificiale e dei diritti digitali. La scelta di Reddit di articolare la propria azione legale principalmente sui principi della concorrenza sleale, piuttosto che su una mera violazione del copyright, evidenzia le crescenti limitazioni dell’apparato giuridico tradizionale nella tutela dei contenuti digitali.

    L’Unfair Competition Law californiana offre un framework giuridico più flessibile e comprensivo rispetto al copyright tradizionale, definendo come illecita qualsiasi pratica commerciale “illegale, sleale o fraudolenta”. Questo approccio consente di valutare le condotte commerciali e il loro impatto competitivo in modo più completo, spostando il focus dall’ownership alla fairness delle pratiche commerciali. La legislazione che contrasta la concorrenza sleale permette inoltre di implementare in modo efficace la dottrina dell’indebito arricchimento, un aspetto particolarmente importante nel panorama dell’accumulo su vasta scala di dati per l’intelligenza artificiale.

    Verso un Nuovo Equilibrio tra Innovazione e Diritti: Riflessioni Conclusive

    La battaglia legale tra Reddit e Anthropic non è solo una questione di soldi o di violazione di termini di servizio. È un campanello d’allarme che ci invita a riflettere su come stiamo gestendo l’enorme potere dell’intelligenza artificiale e su come stiamo proteggendo i diritti di chi crea i contenuti che alimentano queste tecnologie. È fondamentale trovare un equilibrio tra l’innovazione e la tutela dei diritti digitali, garantendo che lo sviluppo dell’IA avvenga in modo etico e sostenibile.
    In questo contesto, è utile ricordare un concetto base dell’intelligenza artificiale: il
    machine learning. I modelli di IA, come quelli di Anthropic, imparano dai dati che vengono loro forniti. Più dati hanno a disposizione, più diventano precisi e sofisticati. Tuttavia, se questi dati vengono acquisiti in modo illegale o non etico, l’intero processo di apprendimento viene compromesso.
    Un concetto più avanzato è quello del
    transfer learning*. Invece di addestrare un modello da zero, si può utilizzare un modello pre-addestrato e adattarlo a un nuovo compito. Questo può accelerare notevolmente lo sviluppo dell’IA, ma solleva anche questioni etiche sulla provenienza dei dati utilizzati per addestrare il modello originale.
    La vicenda di Reddit e Anthropic ci spinge a interrogarci su chi debba beneficiare dei progressi dell’IA. Dovrebbero essere solo le grandi aziende tecnologiche, o anche i creatori di contenuti che forniscono i dati necessari per l’addestramento dei modelli? E come possiamo garantire che l’IA venga utilizzata per il bene comune, senza sfruttare o danneggiare le persone e le comunità che la alimentano? Queste sono domande complesse che richiedono un dibattito aperto e inclusivo, coinvolgendo esperti, legislatori, aziende e cittadini. Solo così potremo costruire un futuro in cui l’intelligenza artificiale sia uno strumento al servizio dell’umanità, e non una minaccia per i nostri diritti e la nostra dignità.

  • Llm: perché la coerenza non è sempre sinonimo di conoscenza?

    Llm: perché la coerenza non è sempre sinonimo di conoscenza?

    Quando la coerenza simula la conoscenza

    Il fenomeno dei Large Language Models (LLM) ha scatenato una notevole ondata d’entusiasmo e aspettative collettive; ci si aspetta che siamo all’alba della creazione di un nuovo tipo d’intelligenza artificiale. È però imperativo chiarire che tali modelli – sebbene abbiano dimostrato un’impressionante abilità nel produrre testi fluidi – operano secondo principi statistici piuttosto che possedere una reale comprensione del mondo. Questa differenziazione assume rilevanza sostanziale al fine di prevenire l’eccessiva valorizzazione delle competenze offerte dagli LLM o l’attribuzione indiscriminata a questi strumenti d’incarichi essenziali senza adeguati controlli umani.

    A tal proposito merita menzione il caso rappresentativo dell’autrice Amanda Guinzburg; ella ha interpellato ChatGPT affinché analizzasse i suoi articoli scegliendo quelli più adatti da proporre a un agente editoriale. Sebbene le risposte ricevute siano sembrate inizialmente ben articolate e attinenti all’argomento trattato, ChatGPT si è visto costretto poi ad ammettere d’aver disatteso l’effettivo esame dei testi stessi; infatti le sue valutazioni erano fondate esclusivamente sui titoli delle opere accompagnati da varie congetture. Tale vicenda mette in luce uno specifico limite peculiare agli LLM: ovvero l’attitudine alla fornitura di risposte persino in mancanza di dati certi ed affidabili, dando priorità a una forma linguistica armoniosa rispetto alla correttezza dei contenuti offerti.

    Le “allucinazioni” degli LLM: un problema strutturale

    Le cosiddette “allucinazioni” degli LLM, ovvero la produzione di enunciati falsi ma plausibili, non sono un’anomalia da correggere, bensì una conseguenza inevitabile del loro funzionamento. Questi modelli sono progettati per generare il testo più probabile in base ai dati di addestramento, senza una reale capacità di distinguere il vero dal falso. La verità, nei LLM, ha uno statuto statistico, non ontologico: ciò che conta è la probabilità che una frase segua un’altra in un determinato contesto linguistico.

    Questa limitazione ha implicazioni significative per l’affidabilità degli LLM e per la loro applicazione in contesti critici. Se un modello non è in grado di garantire la veridicità dei contenuti, non può essere considerato uno strumento affidabile per l’automazione di processi decisionali. L’illusione di poter delegare compiti complessi a sistemi artificiali senza supervisione umana può portare a errori e conseguenze indesiderate.

    Oltre l’illusione dell’automazione: il ruolo della competenza umana

    Sebbene gli LLM presentino delle limitazioni insite nella loro struttura, l’impatto notevole sui vari settori risulta indiscutibile. È essenziale, però, rivedere le attese sottolineando come il compito primario sia quello di affiancare ed espandere l’aura conoscitiva dell’uomo, anziché soppiantarla del tutto. Questi modelli possono rivelarsi preziosi nel delegare attività monotone, elaborando tracce iniziali o offrendo ispirazioni creative; tuttavia, sarà sempre indispensabile il controllo rigoroso da parte di specialisti umani affinché venga mantenuta un’affidabilità e una correttezza sufficiente.

    I rischi principali non derivano dalla possibile disoccupazione causata dalle nuove tecnologie; al contrario, risiedono nell’inganno dell’idea secondo cui si potrebbe prescindere dalla capacità critica per raggiungere performance superiori. Pertanto sarà vitale tutelare ed esaltare l’esperienza umana investendo nelle strade dell’insegnamento e nel progresso professionale, affinché ciascuno possa destreggiarsi nell’utilizzo degli LLM con responsabilità ed efficacia.

    Verso un’intelligenza artificiale affidabile: la sfida del futuro

    Nell’ambito del progresso tecnologico, il destino dell’intelligenza artificiale si trova intimamente legato alla nostra capacità di superare i vincoli imposti dagli attuali LLM; dobbiamo dedicarci allo sviluppo di modelli caratterizzati da un alto grado di affidabilità e trasparenza. Per poter svelare le vere opportunità offerte dall’IA nel miglioramento della nostra società contemporanea, occorre canalizzare risorse significative nella ricerca affinché si possano realizzare sistemi che sappiano discriminare tra verità e menzogna. Inoltre tali sistemi devono essere capaci d’impartire spiegazioni esaustive riguardo alle scelte effettuate autonomamente.

    A tal proposito, l’affidabilità emerge come fulcro cruciale della discussione. Sino a quando gli LLM rimarranno relegati a operazioni puramente linguistiche senza un diretto coinvolgimento con la realtà oggettiva circostante, non sarà mai possibile giungere a un’autentica delega responsabile. Diventa quindi urgente innovarsi attraverso lo sviluppo di nuove metriche insieme a protocolli idonei al fine di misurare con precisione sia l’accuratezza che l’affidabilità degli algoritmi implementati; questo permetterebbe altresì di distinguere ciò che appare da ciò che viene realmente compreso dal sistema stesso.

    L’intelligenza artificiale rappresenta una vera sfida scientifica piuttosto che mera metafora!

    L’approccio a questa tematica necessita di sostanziale rigore, competenze mirate, insieme a una consapevolezza acuta dei confini e delle opportunità offerte dalla stessa. Questo è l’unico modo per scongiurare il rischio di considerare la tecnologia come qualcosa di onnipotente, dirigendo così i nostri sforzi verso un domani in cui l’intelligenza artificiale operi per il bene comune.

    Oltre la Superficie: Coltivare un’Intelligenza Artificiale Radicata nella Realtà

    Percorrere le acque tempestose dell’intelligenza artificiale esige uno strumento d’orientamento accuratamente sintonizzato; è necessario un aiuto che ci conduca oltre la brillante facciata delle aspettative tecnologiche fino ad arrivare a un’introspezione più incisiva. È nella nostra natura umana quella spinta incessante alla ricerca di significato e intenzioni dietro tutto ciò che osserviamo attorno; pertanto l’efficacia con cui gli LLM riescono a produrre testi articolati può indurci in errore lasciandoci credere nella presenza di un’autentica intelligenza. Tuttavia—come dimostrato—tali modelli seguono regole statistiche impiegate per gestire simboli privi della genuina consapevolezza riguardo al contesto in cui si collocano.

    Ancorandoci meglio alla questione attraverso uno dei cardini cruciali della tecnologia intelligente: il machine learning. Gli LLM vengono formati attraverso vastissime banche dati da cui sono capaci di dedurre schemi ricorrenti e produrre testi logici. In ogni caso però questa forma d’apprendimento resta intrinsecamente statistica; essa non configura né suggerisce alcuna autenticità interpretativa del contenuto stesso dei dati elaborati.

    Un concetto più avanzato è il reasoning, ovvero la capacità di un sistema di IA di dedurre nuove informazioni a partire da quelle esistenti. Gli LLM, pur essendo in grado di simulare il ragionamento, non possiedono una vera capacità di deduzione logica, poiché si basano su correlazioni statistiche piuttosto che su principi causali.

    La sfida del futuro è quindi quella di sviluppare modelli di IA che vadano oltre la semplice manipolazione di simboli e che siano in grado di acquisire una vera comprensione del mondo. Questo richiede un approccio multidisciplinare, che integri le tecniche del machine learning con la conoscenza del dominio specifico in cui l’IA deve operare. Solo in questo modo potremo costruire un’intelligenza artificiale che sia non solo potente, ma anche affidabile e responsabile. E, forse, solo così potremo evitare di essere ingannati dalle “allucinazioni” delle macchine, imparando a distinguere la coerenza dalla conoscenza, la forma dalla sostanza.

    *Prompt per l’immagine:*

    “Un’immagine iconica che raffigura un cervello umano stilizzato, con connessioni neurali che si estendono verso un libro aperto da cui emergono simboli linguistici astratti. Il libro è posizionato su una bilancia, contrapposto a un globo terrestre stilizzato che rappresenta la realtà. Lo stile dell’immagine è ispirato all’arte naturalista e impressionista, con una palette di colori caldi e desaturati. Il cervello umano è rappresentato con tratti delicati e organici, mentre il libro e il globo terrestre hanno un aspetto più geometrico e stilizzato. L’immagine non deve contenere testo e deve essere semplice, unitaria e facilmente comprensibile. L’immagine deve evocare la metafora della contrapposizione tra la conoscenza linguistica e la comprensione del mondo reale.”

  • IA e traduzioni: quali insidie si celano dietro l’automazione linguistica?

    IA e traduzioni: quali insidie si celano dietro l’automazione linguistica?

    Un’Analisi Approfondita

    L’emergere dell’intelligenza artificiale (IA) rappresenta una vera rivoluzione per il campo delle traduzioni linguistiche, ridefinendo le funzioni degli esperti del linguaggio come linguisti, mediatori e interpreti. Mentre l’IA si presenta con promettenti prospettive future, è altresì importante considerare i rilevanti interrogativi riguardanti la qualità, l’etica, nonché le conseguenze che potrebbe avere sull’occupazione degli addetti ai lavori in questo ambito. Grazie alla disponibilità di tecnologie avanzate per la traduzione automatizzata, anche le piccole e medie imprese (PMI) riescono a espandere la loro attività nei mercati internazionali senza necessitare ingenti capitali iniziali; ciò consente loro di oltrepassare il limite imposto dalla predominanza della lingua inglese nelle comunicazioni commerciali globalizzate. Tuttavia, tale democratizzazione nella sfera della traduzione non è priva di sorprese negative.

    I Rischi e le Sfide dell’Automazione Linguistica

    L’affidamento totale ai meccanismi automatizzati per il processo traduttivo implica una significativa diminuzione della componente umana, fondamentale nella mediazione tra lingue e culture diverse. Gli esperti del campo possiedono un’elevata dose di competenza e una profonda sensibilità che consente loro di fornire una contestualizzazione precisa delle informazioni; un elemento che risulta difficile da emulare per i sistemi basati sull’IA. In aggiunta a ciò, i metodi automatici suscitano giustificate inquietudini riguardo alla salvaguardia dei dati personali. Gli utenti possono facilmente mettere in gioco le loro informazioni senza essere pienamente consapevoli delle conseguenze coinvolte; ciò porta a compromettere tanto la segretezza quanto la protezione delle informazioni più delicate. Seppur apprezzabile per rapidità ed economia, [traduzione automatica]​ manca totalmente della stessa solidità in termini di sicurezza o affidabilità offerta dai veri esperti linguistici.

    *TOREPLACE: Crea un’immagine iconica che rappresenti il tema dell’articolo. Immagina un cervello umano reinterpretato in modo stilizzato, da cui si irradiano circuiti digitali collegandosi a una tastiera di computer: questa rappresentazione evoca l’intelligenza artificiale. Accanto a questo simbolo tecnologico troviamo una silhouette umana che regge con cura un libro aperto, incarnando così il traduttore professionale. La composizione artistica è ispirata ai principi del naturalismo e dell’impressionismo; i toni cromatici adottati sono prevalentemente caldi ed equilibrati nella loro saturazione. Mediante queste metafore visive, si esplora il tema della sinergia ma anche della rivalità tra IA e esseri umani nel dominio della traduzione linguistica. Senza alcun uso di parole scritte, l’immagine è concepita per apparire essenziale ed armonica.

    L’Impatto sul Lavoro e la Necessità di Valorizzare il Linguista

    L’introduzione dell’intelligenza artificiale nel campo delle traduzioni sta portando a una trasformazione notevole del panorama lavorativo. Risulta imperativo mettere in risalto le professionalità capaci di contestualizzare i contenuti e assicurare l’eccellenza qualitativa delle versioni linguistiche fornite. In tale scenario, il linguista riveste una funzione chiave come garante e consulente nella sfera della comunicazione globale, occupandosi di adattare e contestualizzare i messaggi destinati da ciascuna azienda al proprio pubblico di riferimento. Pertanto, l’attività del traduttore subisce un cambiamento sostanziale: non è più visto solo come un operatore meramente meccanico ma si trasforma in un custode dell’interazione linguistica e culturale fra diverse realtà.

    Verso una Coesistenza Collaborativa: Il Futuro del Traduttore nell’Era dell’IA

    Il panorama futuro delle traduzioni appare destinato a una sinergia tra esperti umani e tecnologie avanzate di traduzione automatica. Nonostante le indubbie capacità dell’intelligenza artificiale nel generare testi con velocità ed efficienza, permangono settori quali quello sanitario e legale dove la supervisione umana risulta fondamentale per prevenire potenziali errori dai risvolti critici. In questo contesto, l’IA può essere concepita come un valido partner per i professionisti della lingua, favorendo l’automazione della ricerca lessicale e offrendo supporto visivo attraverso sottotitoli immediati. È tuttavia cruciale che gli operatori del settore affinino le loro abilità tecnologiche oltre a concentrarsi su nicchie dove l’apporto umano resta imprescindibile.

    Conclusioni: L’Equilibrio tra Innovazione e Umanità

    La rivoluzione apportata dall’intelligenza artificiale nel campo delle traduzioni è evidente; essa ha introdotto non solo nuove possibilità ma anche notevoli difficoltà. È imprescindibile raggiungere una sinergia fra progresso tecnologico ed esaltazione dell’apporto umano nella creazione linguistica al fine di mantenere standard elevati in termini di qualità e integrità etica delle versioni prodotte. La direzione futura del settore sarà determinata dalla nostra abilità nel far convivere efficacemente questa nuova tecnologia con la professionalità degli esperti traduttori.
    Gentili lettori, prendiamoci qualche istante per analizzare insieme una nozione cardine: quella del machine learning. Immaginatevi mentre spiegate a una creatura giovane come fare distinzione tra gatti e cani tramite una serie infinita di fotografie; più immagini osserva quello stesso soggetto infantile e maggiormente affina la sua capacità interpretativa rispetto alle peculiarità visive delle due specie animali. Parimenti agisce anche l’intelligenza artificiale nell’assimilare informazioni dai vasti serbatoi informativi che le vengono messi a disposizione.

    Adesso focalizziamo sul concetto evoluto del transfer learning. Questo approccio consente all’IA non solo d’iniziare ex novo ma piuttosto d’impiegare competenze già acquisite in uno specifico ambito applicandole proficuamente ad altri contesti differenti; pensiamo ad esempio alla possibilità che ha una macchina intelligente formata per identificare oggetti visivi sia capace poi d’estendere queste abilità verso la comprensione della lingua parlata o scritta. Tale considerazione ci induce a domandare: in che modo possiamo massimizzare i benefici offerti dall’IA nell’ambito delle traduzioni, senza trascurare aspetti cruciali come la creatività, la sensibilità culturale, e l’esperienza umana? Probabilmente, la soluzione si trova nella nostra abilità di stabilire una giusta armonia fra la prontezza della tecnologia automatica e il fondamentale apporto dell’essere umano.

  • L’AI ACT cambierà l’Italia? Ecco il comitato che guiderà la transizione

    L’AI ACT cambierà l’Italia? Ecco il comitato che guiderà la transizione

    Il settore dell’intelligenza artificiale (IA) evolve rapidamente, e di pari passo cresce l’esigenza di una disciplina normativa chiara ed efficace. In questo scenario, l’Italia si mobilita per affrontare le sfide e cogliere le occasioni offerte dall’AI Act europeo, mediante la costituzione di un Comitato specializzato in Data Governance e AI Compliance (DGAIC). Questa iniziativa, promossa dalla Fondazione AISES – SPES Academy, ha lo scopo di unire istituzioni, aziende e ricerca, per assicurare che l’Italia eserciti un’influenza significativa e autorevole nella regolamentazione dell’IA.
    Il DGAIC ha come scopo principale quello di indirizzare l’attuazione delle direttive europee sull’IA, potenziando il contributo nazionale e promuovendo lo sviluppo di programmi di formazione condivisi tra la Pubblica Amministrazione (PA) e il settore privato. La direzione del comitato sarà responsabilità di Valerio De Luca, che ricopre la carica di Rettore della SPES Academy “Carlo Azeglio Ciampi” e di Presidente della Fondazione AISES ETS, con il supporto di Oreste Pollicino, Professore Titolare di Legislazione dell’IA presso l’Università Bocconi. La struttura del comitato dimostra l’intento di includere tutti gli attori chiave nel contesto dell’IA italiano, con la partecipazione di figure apicali delle principali autorità competenti e di rappresentanti di aziende di rilievo.

    Prompt per l’immagine:

    Un’immagine iconica che rappresenti l’intersezione tra intelligenza artificiale, istituzioni e imprese nel contesto dell’AI Act europeo. L’immagine dovrebbe includere:
    1. Un cervello stilizzato: Rappresenta l’intelligenza artificiale, con circuiti che si diramano come radici di un albero, simboleggiando la crescita e la complessità dell’IA.
    2.
    Un edificio istituzionale: Un edificio con colonne classiche, che rappresenta le istituzioni governative e la loro funzione di regolamentazione e controllo.
    3.
    Un ingranaggio: Simboleggia le imprese e il mondo del lavoro, con un design che richiama l’innovazione e la produzione.

    Lo stile dell’immagine dovrebbe essere ispirato all’arte naturalista e impressionista, con una palette di colori caldi e desaturati. L’immagine non deve contenere testo e deve essere facilmente comprensibile.

    Lavoro e Intelligenza Artificiale: Un Nuovo Equilibrio Normativo

    L’integrazione dell’intelligenza artificiale nei processi produttivi e nelle strutture organizzative rappresenta una sfida inedita per il diritto del lavoro italiano. Non si tratta semplicemente di una trasformazione tecnologica, bensì di un cambiamento radicale che pone questioni rilevanti in merito a protezione, responsabilità e sostenibilità. La proposta di legge recentemente approvata al Senato, insieme alle Linee guida sull’impiego dell’IA nel mondo del lavoro messe in consultazione dall’Agenzia per l’Italia Digitale e dal Ministero del Lavoro, denota un cambio di prospettiva: l’IA è ora percepita non solo come questione tecnica, ma come elemento con un notevole impatto sociale, da regolamentare con un approccio multidisciplinare attento.

    Il Regolamento europeo sull’intelligenza artificiale (Reg. UE 2024/1689), noto anche come “AI Act”, identifica queste applicazioni come a elevato rischio, prescrivendo un insieme di severe prescrizioni quali la registrazione dei sistemi, la realizzazione di valutazioni d’impatto, l’esecuzione di audit esterni e l’adozione di meccanismi di supervisione umana. Il disegno di legge italiano, pur con minor dettaglio, sposa tale impostazione, esigendo un orientamento fondato su responsabilità e trasparenza.

    Una questione complessa riguarda la fusione di questi nuovi obblighi con il quadro giuridico attuale. La legislazione italiana protegge, oltre alla riservatezza, la dignità e l’integrità psico-fisica del lavoratore ai sensi dell’art. 2087 c.c. Un sistema algoritmico che influenza decisioni gestionali non può eludere tali principi. Sorge la domanda sul ruolo che il datore di lavoro avrà nella supervisione dei sistemi automatizzati e se l’impiego di questi strumenti implicherà nuovi requisiti di informazione o meccanismi di coinvolgimento dei lavoratori.

    Sicurezza e Regolamentazione: Un Binomio Indissolubile

    La sicurezza è un aspetto cruciale nell’implementazione dell’intelligenza artificiale, sia nel contesto industriale che in quello aziendale. Il nuovo Regolamento Macchine (UE) 2023/1230, che subentra alla Direttiva 2006/42/CE, apporta significative modifiche in tema di software, cybersecurity, intelligenza artificiale e revisiona i Requisiti Essenziali di Sicurezza e Salute (RESS). Questo regolamento rappresenta un passo avanti significativo nella garanzia della sicurezza dei macchinari e degli impianti industriali, con un focus particolare sulla sicurezza funzionale e sulla valutazione dei rischi.

    Tuttavia, la sicurezza non riguarda solo gli aspetti tecnici e normativi, ma anche la consapevolezza e la formazione dei lavoratori. Uno studio recente ha evidenziato che una parte significativa dei dipendenti utilizza l’intelligenza artificiale senza informare il proprio datore di lavoro, esponendo i dati sensibili aziendali a rischi. Questo fenomeno, definito shadow AI, sottolinea la necessità di individuare e definire politiche aziendali trasparenti e chiare, adottare le giuste soluzioni AI based, organizzare un piano strutturato di formazione per il personale e aggiornare con costanza gli strumenti digitali.

    Verso un Futuro Consapevole: Riflessioni e Prospettive

    L’intelligenza artificiale è una forza trasformativa che sta ridefinendo il nostro mondo, ma il suo impatto dipende da come scegliamo di governarla. Il comitato italiano per l’attuazione dell’AI Act, il dibattito sul lavoro e l’IA, e le nuove normative sulla sicurezza dei macchinari sono tutti segnali di un impegno crescente verso un futuro in cui l’IA sia al servizio dell’uomo, e non viceversa.

    Per comprendere appieno le dinamiche in gioco, è utile richiamare alcuni concetti fondamentali dell’intelligenza artificiale. Ad esempio, l’apprendimento automatico (machine learning) è una branca dell’IA che consente ai sistemi di apprendere dai dati senza essere esplicitamente programmati. Questo significa che un algoritmo può migliorare le proprie prestazioni nel tempo, semplicemente analizzando un numero sempre maggiore di esempi. Un concetto più avanzato è quello dell’IA spiegabile (explainable AI), che mira a rendere trasparenti e comprensibili i processi decisionali dei sistemi di IA. Questo è particolarmente importante in contesti in cui le decisioni dell’IA possono avere un impatto significativo sulla vita delle persone, come nel caso della valutazione del rendimento dei lavoratori o della selezione dei candidati.

    In definitiva, la sfida è quella di creare un ecosistema in cui l’innovazione tecnologica sia guidata da valori etici e sociali, e in cui tutti gli attori coinvolti siano consapevoli dei rischi e delle opportunità dell’IA. Solo così potremo garantire che l’intelligenza artificiale diventi una leva per il progresso e il benessere di tutta la società.
    Le frasi riformulate sono:

    Le redini del comitato saranno prese in mano da Valerio De Luca, il quale ricopre la carica di Direttore della SPES Academy “Carlo Azeglio Ciampi” nonchè di Presidente della Fondazione AISES ETS; le sue operazioni saranno coadiuvate da Oreste Pollicino, Professore a Cattedra di Diritto della Regolamentazione dell’IA presso l’Ateneo Bocconi.
    * La disciplina normativa europea in materia di intelligenza artificiale (Reg. UE 2024/1689), meglio nota come “AI Act”, definisce tali applicazioni come ad alto rischio e impone un insieme di stringenti obblighi, tra cui la registrazione dei sistemi, la conduzione di analisi d’impatto, lo svolgimento di revisioni esterne e l’adozione di meccanismi di controllo umano.