Autore: redazione

  • Come sta trasformando l’intelligenza artificiale l’istruzione in Arizona

    Come sta trasformando l’intelligenza artificiale l’istruzione in Arizona

    —–

    L’Arizona e la Rivoluzione Educativa

    La recente approvazione della Unbound Academy, una scuola online che utilizza in modo totale l’intelligenza artificiale (AI), segna un momento significativo nell’ambito educativo dell’Arizona. Questa iniziativa rivoluzionaria mette in discussione le convenzioni pedagogiche classiche e si prefigge l’obiettivo ambizioso di rinnovare profondamente la modalità d’insegnamento. La Unbound Academy, infatti, non ha pari nel contesto globale delle istituzioni scolastiche; abbandona del tutto il consueto format delle lezioni in aula per proporre un sistema completamente digitale. L’utilizzo dell’AI consente una personalizzazione elevata del curriculum accademico, capace di rispondere con flessibilità ai ritmi individuali e alle necessità peculiari degli studenti. Così facendo, offre la possibilità d’apprendere intensivamente in sole due ore giornaliere mantenendo però elevati standard qualitativi nei contenuti proposti.

    Unbound Academy: Interattività e Life Skills

    Le peculiarità distintive della Unbound Academy comprendono avanzati sistemi di interazione che si adattano alle competenze degli allievi, proponendo sfide graduali in linea con il loro progresso. La supervisione da parte di professionisti, chiamati “guide esperte”, è assicurata, monitorando i miglioramenti e fornendo supporto nei momenti più critici. Un ulteriore elemento di forza è l’accesso universale, grazie a una piattaforma online utilizzabile in qualsiasi luogo, annullando così qualsiasi confine geografico. Una caratteristica speciale è l’enfasi posta sulle “life skills”, capacità pratiche fondamentali per preparare gli studenti a confrontarsi con la vita quotidiana. Accanto alle classiche materie scolastiche viene data rilevante attenzione a tematiche come la gestione delle finanze personali, l’arte del public speaking e il problem solving. Tale focalizzazione rappresenta un distacco significativo dal tradizionale metodo educativo, spesso messo in discussione per la limitata applicazione pratica delle nozioni insegnate.

    I Vantaggi e le Sfide dell’AI nell’Istruzione

    L’utilizzo dell’AI nel campo dell’istruzione offre molti benefici, ma pone anche quesiti significativi. La possibilità di un apprendimento personalizzato consente a ciascun alunno di sviluppare un percorso su misura e la concentrazione sui programmi riduce le ridondanze temporali. La capacità di accesso globale appare come un altro beneficio, favorendo l’opportunità di partecipare alle lezioni da qualsiasi luogo. Tuttavia, la qualità della supervisione umana si baserà sull’abilità delle “guide esperte” nel compensare le carenze dell’AI. È altresì cruciale assicurare che tutti gli studenti possano accedere alle risorse tecnologiche necessarie per prevenire ineguaglianze.

    Un Nuovo Paradigma per l’Istruzione Globale

    La proposta avanzata da Unbound Academy ha la potenzialità di fungere da catalizzatore per una trasformazione profonda dei modelli didattici globali. È tuttavia imperativo considerare con attenzione le conseguenze che derivano dall’adozione esclusiva dell’AI in questo contesto educativo. Solo garantendo un’adeguata sinergia tra progressi tecnologici ed intervento umano si potranno sfruttare a pieno le opportunità offerte da questa svolta formativa. La tecnologia dell’intelligenza artificiale consente lo sviluppo di sistemi educativi su misura, promuovendo una maggiore inclusività nell’accesso all’istruzione per ogni discente, senza distinzione alcuna legata alle origini socio-culturali. Nonostante ciò, appare cruciale investire nella coltivazione e nel potenziamento delle competenze emergenti; infine l’intelligenza emotiva, così come il pensiero creativo, continuano a contraddistinguere l’esperienza umana in modo irrinunciabile.

    In conclusione, l’introduzione dell’intelligenza artificiale nell’istruzione rappresenta una sfida e un’opportunità senza precedenti. Nel campo dell’intelligenza artificiale, una nozione fondamentale da considerare è quella del machine learning, un processo mediante il quale i sistemi hanno la capacità di apprendere ed evolversi autonomamente basandosi sulle esperienze acquisite. Questa tecnologia costituisce il fondamento per la personalizzazione dell’apprendimento offerta da Unbound Academy. In una dimensione più sofisticata, troviamo il deep learning, che sfrutta le potenzialità delle reti neurali artificiali per elaborare enormi volumi di dati e formulare previsioni o prendere decisioni complesse. Mentre ci si sofferma su tali progressi tecnologici, risulta essenziale esplorare in che modo l’AI possa amplificare la qualità dell’esperienza formativa, senza però scordarsi mai dell’importanza della componente umana e dell’empatia nel percorso educativo.

    —–

  • Il rivoluzionario modello O3 di OpenAI: test-time scaling svelato

    Il rivoluzionario modello O3 di OpenAI: test-time scaling svelato

    Nell’ambito dell’intelligenza artificiale, il sistema o3 sviluppato da OpenAI segna una vera e propria evoluzione e apre nuovi orizzonti in merito alle leggi del scaling. Tale innovazione si deve all’applicazione del principio di test-time scaling, ovvero a una strategia che sfrutta ulteriori capacità computazionali nella fase dedicata all’inferenza. Grazie a questo metodo avanzato, il modello o3 ha conseguito performance straordinarie nei benchmark nazionali quali l’ARC-AGI; in questa sede ha ottenuto un punteggio pari all’88%, risultato notevolmente superiore rispetto a quello del predecessore o1, fermo invece a un modesto 32%.

    Costi e Limitazioni del Test-Time Scaling

    Malgrado i recenti avanzamenti nel campo, il test-time scaling porta con sé notevoli oneri economici. L’applicazione di questa strategia richiede una potenza computazionale inusitata, rendendo quindi l’esecuzione del modello o3 assai dispendiosa. Le stime indicano che le spese per risorse informatiche superino i 1.000 dollari per ogni operazione complessa; tale somma rende impraticabile la sua applicazione nella quotidianità degli utenti comuni. Ciò genera dubbi in merito alla sostenibilità economica dei modelli simili e ne limita seriamente la fattibilità a contesti d’alto profilo dove tali investimenti possono trovare una valida giustificazione economica, come nei settori della ricerca accademica o finanziaria.

    Prospettive Future e Sfide Tecnologiche

    La progressione del test-time scaling può avvantaggiarsi dell’emergere di circuiti integrati per l’inferenza più efficaci. Diverse start-up si stanno dedicando attivamente allo sviluppo di approcci che potrebbero diminuire le spese legate a questo metodo, rendendo così i modelli sofisticati maggiormente disponibili al pubblico. Nonostante ciò, e pur considerando le loro possibilità future, il modello o3 non ha ancora ottenuto l’AGI (Artificial General Intelligence), rivelando incertezze e limiti evidenti, tra cui una frequente inclinazione alla produzione di risposte imprecise o allucinazioni.

    Riflessioni sul Futuro dell’Intelligenza Artificiale

    Il recente sviluppo del modello o3 da parte di OpenAI segna una significativa evoluzione nel campo dell’intelligenza artificiale; tuttavia introduce anche questionamenti importanti relativi all’impiego e alle spese associate a queste tecnologie avanzate. L’idea della messa a punto tramite test-time scaling appare estremamente promettente come strategia per elevare le performance nei sistemi AI; ciononostante essa richiede ancora significative innovazioni tecnologiche affinché possa diventare realmente vantaggiosa dal punto di vista economico. Sarà essenziale riuscire a conseguire una sinergia tra un incremento nelle capacità elaborate dai computer e una contenuta riduzione dei costi operativi per garantire un accesso ampio a tali strumenti.

    All’interno della sfera dell’intelligenza artificiale esiste uno degli aspetti chiave definito come inference: è quel meccanismo attraverso cui i modelli generano output in risposta agli input ricevuti. Nel caso specifico del nuovo modello o3, il processo d’inferenza trae giovamento dall’impiego del metodo test-time scaling, il quale fa uso intenzionale di risorse hardware supplementari nella ricerca della massima accuratezza nelle comunicazioni generate dal sistema stesso. Ciò nonostante questa dinamica comporta inevitabili incrementi nei costi operativi totali delle piattaforme coinvolte, alimentando dunque preoccupazioni riguardanti la reale sostenibilità futura degli approcci adottati. Un aspetto sofisticato intimamente legato alla questione in oggetto riguarda la scalabilità computazionale, intesa come l’attitudine di un sistema a fronteggiare un incremento del carico operativo mantenendo inalterate le sue prestazioni. Per quanto concerne il modello o3, tale scalabilità viene raggiunta grazie all’impiego di risorse informatiche altamente performanti; tuttavia, questa scelta comporta spese considerevoli. Ne deriva una necessaria riflessione sul delicato equilibrio tra progresso tecnologico e sostenibilità economica, argomento fondamentale per il domani dell’intelligenza artificiale.

  • Scopri come l’intelligenza artificiale sta rivoluzionando la sicurezza e la creatività umana

    Scopri come l’intelligenza artificiale sta rivoluzionando la sicurezza e la creatività umana

    Nel panorama contemporaneo, l’intelligenza artificiale (IA) rappresenta una delle frontiere più affascinanti e complesse della tecnologia moderna. Emanuele Frontoni, uno dei principali esperti italiani nel campo, sottolinea l’importanza di un approccio consapevole e non apocalittico verso l’IA. Nel suo libro “AI, ultima frontiera”, esplora le applicazioni concrete dell’IA, evidenziando come essa non sia un sostituto della creatività umana, ma piuttosto un amplificatore di possibilità. Frontoni paragona l’IA a una nuova terra da abitare, simile al West dei pionieri, ma con una maggiore consapevolezza e responsabilità. Questo nuovo territorio tecnologico offre opportunità straordinarie, ma richiede anche una riflessione profonda sulle implicazioni etiche e sociali.

    Applicazioni Impensabili e Innovazioni

    Il settore della salute presenta applicazioni di IA davvero straordinarie. Un caso emblematico è quello che riguarda i bambini nati pretermine: qui, l’intelligenza artificiale si occupa di osservare continuamente i loro movimenti, fornendo importanti dati per una corretta valutazione dello sviluppo cerebrale infantile. Tale tecnologia consente un controllo incessante e altamente accurato, cosa che non sarebbe neppure concepibile con metodi tradizionali manuali. Inoltre, si può menzionare anche il celebre Ponte di Genova; in questo contesto, si utilizza l’IA per garantire sia la manutenzione che il monitoraggio delle strutture stesse, fungendo così da baluardo contro potenziali disastri simili al tragico crollo del Ponte Morandi. Queste istanze mettono in evidenza come gli strumenti intelligenti possano fungere da appoggio determinante per gli esseri umani nell’accrescimento della sicurezza e nell’ottimizzazione dei processi vitali in ambiti fondamentali.

    Etica e Regolamentazione

    L’etica riguardante l’impiego dell’intelligenza artificiale si configura come una questione cruciale nel panorama attuale. All’interno del contesto europeo, la promulgazione di normative specifiche volte a governare tale ambito rappresenta un notevole progresso. Tali normative perseguono il fine di assicurare che le tecnologie d’intelligenza artificiale vengano applicate con chiarezza e senza pratiche suscettibili di discriminazione, tutelando così i diritti fondamentali degli individui e la loro dignità intrinseca. La questione della fiducia si rivela decisiva: affinché gli utenti possano accogliere positivamente queste soluzioni algoritmiche, è essenziale che esse siano comprensibili ed evidenti nel loro funzionamento. Altro aspetto rilevante concerne la necessaria trasparenza nell’uso degli strumenti generativi dell’IA, come testimoniato dalla prassi d’includere opportune citazioni dei software impiegati all’interno delle tesi universitarie.

    Verso un Futuro Sostenibile

    L’incorporazione dell’intelligenza artificiale nella trama sociale suscita interrogativi fondamentali relativi alla sostenibilità e all’equità. Sebbene l’IA abbia il potenziale per promuovere un avvenire più ecocompatibile, è cruciale garantire che i vantaggi derivanti da essa siano distribuiti in modo giusto tra tutti gli attori coinvolti. Un caso emblematico è quello dei cappelli prodotti a Montappone; questa esperienza esemplifica come il progresso tecnologico possa fungere da catalizzatore per la creatività umana, specie nell’ambito del fashion design attraverso previsioni più accurate delle tendenze con conseguente riduzione degli scarti produttivi. Nonostante ciò, occorre ribadire che la vera essenza della creatività appartiene agli uomini: pertanto l’intelligenza artificiale deve essere considerata esclusivamente quale ausilio piuttosto che mero sostituto.
    Di fatto dunque, l’innovazione nell’ambito dell’IA racchiude sia sfide straordinarie sia opportunità senza pari. Un aspetto primario legato a questo ambito tecnologico è rappresentato dal fenomeno del machine learning, capace di permettere agli algoritmi di adattarsi autonomamente attraverso l’analisi dei dati accumulati negli anni per affinare continuamente le proprie performance. Altro elemento significativo consiste nell’intelligenza artificiale spiegabile: ci si riferisce qui all’attitudine dei sistemi intelligenti a produrre interpretazioni accessibili riguardanti le logiche sottostanti ai propri processi decisionali. Nel ponderare queste questioni, si rivela opportuno concepire l’IA non soltanto come una mera innovazione tecnologica, bensì come un’occasione per riconsiderare i legami che intratteniamo tanto con le tecnologie quanto con l’ambiente circostante. L’impegno primario consiste nell’adottare l’IA quale strumento atto a rafforzare la nostra umanità, elevando così il livello di benessere e favorendo uno sviluppo che sia sostenibile e realmente inclusivo.

  • Come l’allineamento deliberativo di OpenAI sta rivoluzionando la sicurezza AI

    Come l’allineamento deliberativo di OpenAI sta rivoluzionando la sicurezza AI

    OpenAI ha <a class="crl" href="https://www.ai-bullet.it/ai-innovations/scopri-come-i-modelli-o3-di-openai-stanno-rivoluzionando-il-ragionamento-artificiale/”>recentemente annunciato una nuova famiglia di modelli di ragionamento AI, denominata o3, che si distingue per essere più avanzata rispetto ai modelli precedenti, come o1. Questi progressi sono attribuiti a miglioramenti nel calcolo durante il test e all’introduzione di un nuovo paradigma di sicurezza chiamato “allineamento deliberativo”. Questo metodo consente ai modelli di riproporsi con la politica di sicurezza di OpenAI durante la fase di inferenza, migliorando la loro capacità di gestire argomenti sensibili senza rifiutare eccessivamente le richieste.

    Allineamento Deliberativo: Un Nuovo Paradigma di Sicurezza

    L’allineamento deliberativo rappresenta una svolta significativa nella formazione dei modelli AI di OpenAI. Tradizionalmente, la sicurezza AI si concentra sulle fasi di pre-addestramento e post-addestramento, ma questo nuovo approccio si applica durante l’inferenza. Dopo che un utente invia un prompt, i modelli di ragionamento AI impiegano da pochi secondi a diversi minuti per suddividere il problema in passaggi più piccoli. Durante questo processo, noto come “catena del pensiero”, i modelli incorporano la politica di sicurezza di OpenAI, consentendo loro di deliberare internamente su come rispondere in modo sicuro alle domande. Un esempio pratico di questo processo è quando un modello rifiuta di fornire istruzioni su come creare un pass per parcheggio disabili falso, riconoscendo l’illegalità della richiesta e rispondendo con un rifiuto appropriato.

    Utilizzo di Dati Sintetici per l’Addestramento

    Uno degli aspetti distintivi dell’allineamento deliberativo si rivela essere l’integrazione dei dati sintetici, impiegata nel contesto del procedimento formativo posteriore. La compagnia OpenAI ha concepito tale metodologia a prescindere dall’utilizzo delle risposte redatte da soggetti umani; al contrario, essa si fonda su informazioni prodotte da specifici modelli AI interni. Queste informazioni artificialmente create sono state implementate nella messa a punto supervisionata nonché nell’apprendimento rafforzato, costituendo una strategia scalabile che evita i considerevoli oneri economici e le attese temporali tipiche del ricorso ai dati provenienti dagli esseri umani. Di conseguenza, tale metodo ha reso possibile ai modelli o1 e o3 il richiamo efficiente delle parti rilevanti della propria politica sulla sicurezza durante trattazioni inerenti temi delicati, affinando così le loro risposte in termini sia di sicurezza che d’appropriatezza.

    Implicazioni e Sfide Future

    L’implementazione dell’allineamento deliberativo si presenta con una serie significativa di sfide. L’obiettivo primario per OpenAI è stato quello di garantire che l’inserimento di verifiche aggiuntive alla sicurezza non comprometesse né la rapidità né l’efficienza intrinseca dei propri modelli. A dispetto delle complessità riscontrate, le analisi condotte attraverso test benchmark come il Pareto hanno messo in luce l’eccellenza del sistema nell’ottimizzare le performance generali; nello specifico, o1-preview ha dimostrato una superiorità rispetto ad altri sistemi molto noti riguardo alla resistenza alle manovre tese a eludere gli strumenti protettivi messi a punto per limitare gli abusi dell’IA. Pur avendo ottenuto risultati positivi fino ad ora, OpenAI persiste nei suoi sforzi volti al continuo affinamento della strategia adottata, puntando a garantire un’ulteriore sinergia tra intelligenze artificiali e principi etici man mano che queste tecnologie diventano più sofisticate e autonome.

    Conclusione: Verso un Futuro di AI Sicura e Allineata

    L’allineamento deliberativo segna un progresso considerevole nel rafforzare la sicurezza degli algoritmi AI; tuttavia genera anche dubbi circa il giusto equilibrio tra protezione e libertà d’espressione. Con l’integrazione crescente dell’intelligenza artificiale nelle dinamiche quotidiane della società contemporanea, diventa essenziale assicurarsi che tali sistemi possano fornire risposte con adeguate misure di sicurezza.

    Un elemento fondamentale collegato a questa questione è il principio della catena del pensiero, il quale consente agli algoritmi di infrangere le questioni complesse in fasi più facili da gestire; ciò porta a una netta elevazione nella qualità delle informazioni erogate. D’altro canto emerge come concetto progredito quello dell’impiego di dati sintetici, strumento utile per affinare gli algoritmi senza dover necessariamente far ricorso a input derivanti dall’umanità.

    Considerando tali innovazioni, si presenta ora una domanda cruciale: quali strategie possono essere adottate per assicurare un’evoluzione etica e responsabile dell’intelligenza artificiale nel rispetto delle norme morali comunitarie ed incentivando al contempo uno scambio comunicativo trasparente? È possibile che la soluzione si trovi nella perenne ricerca di nuove idee e nell’innovazione, sempre improntata a valori quali la trasparenza e la responsabilità.

  • Cybersecurity 2025: le strategie avanzate che devi conoscere

    Cybersecurity 2025: le strategie avanzate che devi conoscere

    Il 2025 si prospetta come un anno cruciale per la cybersecurity, segnato da una complessità senza precedenti. La sicurezza informatica non è più una semplice questione di protezione di reti e dispositivi, ma è diventata una questione strategica globale. Questo cambiamento è guidato dall’evoluzione delle tecnologie avanzate come l’intelligenza artificiale (IA) e l’automazione, che stanno ridefinendo sia le minacce che le difese. I cybercriminali operano ormai come vere e proprie aziende, con ruoli ben definiti e modelli di business consolidati, sfruttando l’anonimato del Dark Web per condurre operazioni sofisticate. Secondo il Threat Report H2 2024 di ESET, gli infostealer e i ransomware rimangono tra le minacce più diffuse a livello globale, con un incremento della sofisticazione degli attacchi, come l’integrazione degli “EDR killers” per disattivare soluzioni di sicurezza avanzate.

    L’intelligenza artificiale: un’arma a doppio taglio

    Nel contesto della cybersecurity prevista per il 2025, l’intelligenza artificiale si presenta con una natura contraddittoria. Se da una parte fornisce risposte potenti a esigenze pressanti in termini di sicurezza, dall’altra rappresenta un potenziale catalizzatore delle minacce stesse. Le piattaforme basate su IA multimodale – capaci non solo di trattare testi ma anche immagini e voce attraverso algoritmi sofisticati – stanno radicalmente cambiando la natura degli attacchi cibernetici ottimizzandone ed automatizzandone ogni fase. Questa innovazione consente a individui meno qualificati dal punto di vista tecnico di intraprendere operazioni dannose, sempre più evolute e furtive. Nel medesimo tempo, l’applicazione dell’IA sta modificando la forma tradizionale delle cyberminacce, come avviene nel caso del phishing o ransomware: esse sono ora divenute attività imprenditoriali scalabili ed alla portata dei più vari operatori sul mercato criminale. Un dato significativo emerge dal Rapporto Clusit 2024 che evidenzia come vi sia stata una crescita vertiginosa pari al 1.265% nelle comunicazioni ingannevoli via email alimentate dalle nuove tecnologie dell’IA generativa.

    Strategie di difesa: innovazione e resilienza

    Affrontare le sfide previste per il 2025 implica che le organizzazioni debbano abbracciare un metodo strategico caratterizzato da un’impostazione proattiva, capace di fondere efficacemente l’innovazione tecnologica con una rinnovata visione della sicurezza nel contesto digitale. Tecniche fondamentali quali l’analisi predittiva, l’hyperautomation all’interno dei Security Operation Center (SOC), nonché simulazioni avanzate giocano ruoli cruciali nel potenziare la robustezza delle infrastrutture critiche. Grazie all’integrazione dell’intelligenza artificiale nei SOC, diventa possibile fornire risposte rapide ed esatte a minacce emergenti, portando così a una significativa diminuzione sia dei tempi sia dei costi operativi associati alla gestione della sicurezza. È altrettanto imprescindibile promuovere iniziative di cooperazione internazionale unitamente a meccanismi di governance globale mirati ad arginare il fenomeno del crimine informatico. A tal riguardo, è degna di nota la Global Cybercrime Strategy 2022-2025 elaborata da INTERPOL; essa si configura come un’importante tappa nel confronto al cybercrime stesso, articolandosi su obiettivi essenziali come:
    – ‘l’analisi e‘la prevenzione proattiva’
    e lo sviluppo delle capacità

    Una visione olistica per il futuro della cybersecurity

    La visione sui trend correlati al cybercrime 2025, oltre a costituire una previsione puramente statistica, si configura come uno squillo d’allerta: essa ci invita ad agire concretamente nell’affrontare le intricate problematiche dettate dall’interconnessione globale crescente. È solo mediante sforzi collettivi ben orchestrati ed investimenti strategici che sarà possibile tutelare l’integrità operativa all’interno dell’evolutivo ecosistema digitale contemporaneo. Le imprese capaci d’innovarsi senza sacrificare i propri standard di sicurezza godranno dunque dei frutti migliori nella realtà digitalmente interconnessa.

    Per quanto riguarda il tema dell’intelligenza artificiale, questa si afferma come pilastro portante nel contesto attuale della cybersecurity. La sua applicazione consente infatti l’elaborazione tempestiva ed efficace di enormi volumi informativi alla ricerca di anomalie o minacce emergenti, prima ancora che esse possano arrecare danno significativo agli asset aziendali o personali. Ciononostante, essa riveste anche una funzione sinistra se usata da individui malintenzionati: questi sfruttano tali tecnologie per perfezionare metodologie d’attacco sofisticate attraverso automazioni spregiudicate. Un aspetto evoluto dell’intelligenza artificiale pertinente alla situazione è rappresentato dall’hyperautomation, tecnologia capace non solo d’automatizzare ogni stadio della gestione delle questioni legate alla sicurezza informatica ma anche d’accrescere nettamente l’efficacia difensiva minimizzando il bisogno dell’intervento umano diretto. Analizzando tali elementi, si comprende chiaramente come la cybersecurity che ci attende necessiterà di un’attenta sinergia fra una costante sperimentazione tecnologica e una valida cooperazione internazionale, al fine di salvaguardare un universo sempre più permeato dalla digitalizzazione.

  • Cookie e IA: come la tecnologia personalizza la tua esperienza online

    Cookie e IA: come la tecnologia personalizza la tua esperienza online

    L’intelligenza artificiale (IA) è considerata una risorsa strategica del XXI secolo, influenzando profondamente le dinamiche quotidiane e geopolitiche. Un libro recente, “Arrivano i robot. Riflessioni sull’intelligenza artificiale”, esplora come l’IA stia trasformando settori come la medicina, l’agroalimentare, l’educazione, l’economia, e molti altri. Gli esperti dell’Università Cattolica del Sacro Cuore hanno contribuito a questo volume, offrendo risposte ai dubbi attuali e sottolineando l’importanza del “pensiero meditante” di Heidegger, che invita a mantenere la tecnologia al servizio dell’uomo. Questo approccio è fondamentale per garantire che l’innovazione tecnologica non diventi un fine a sé stessa, ma rimanga uno strumento per migliorare la qualità della vita umana.

    Implicazioni Sociali ed Economiche dell’IA

    Dal 2018, la Commissione Europea ha promosso la creazione di Gruppi di Esperti per affrontare le implicazioni sociali, antropologiche e giuridiche dell’IA. Uno di questi gruppi, presso l’Università Cattolica, ha prodotto il manuale “Arrivano i Robot”, che offre spunti di riflessione su temi come la privacy e la capacità critica delle persone. L’IA, infatti, può influenzare le scelte individuali, come dimostrato dai servizi di streaming che suggeriscono contenuti basati sulle preferenze passate. Questo fenomeno può limitare l’apertura mentale e la curiosità, rendendo necessaria un’educazione digitale che aiuti a discernere le informazioni in un’epoca di fake news. Inoltre, l’automazione rappresenta una minaccia per il mercato del lavoro, con i robot che possono sostituire l’uomo in molte mansioni. Tuttavia, l’elemento umano, come l’empatia, rimane insostituibile, sollevando interrogativi sul futuro delle interazioni uomo-macchina.

    La Sfida Etica e il Futuro dell’IA

    La crescente integrazione dell’IA nella società solleva questioni etiche cruciali. La capacità delle macchine di eseguire compiti complessi solleva interrogativi sulla loro autonomia e sulla responsabilità umana nel loro utilizzo. La differenza emozionale tra uomo e macchina è un tema centrale, poiché le macchine, progettate per ottenere risultati ottimali, mancano dell’empatia umana. Esperimenti come quello del robot Cozmo, che funge da “animale domestico” per i bambini, esplorano la possibilità di sviluppare macchine capaci di comprendere le emozioni umane. Tuttavia, il cammino verso una vera intelligenza emotiva artificiale è ancora lungo e complesso.

    In conclusione, l’intelligenza artificiale rappresenta una delle frontiere più affascinanti e complesse della tecnologia moderna. Una nozione base correlata al tema è il machine learning, che consente alle macchine di apprendere dai dati e migliorare le loro prestazioni nel tempo. Questo processo è alla base di molte applicazioni dell’IA, dalla personalizzazione degli annunci alla guida autonoma. Il deep learning rappresenta un’avanzata area del machine learning dedicata all’impiego delle reti neurali artificiali per esaminare enormi volumi di dati e individuare modelli complessi. Tale approccio risulta essenziale nel progresso dei sistemi d’intelligenza artificiale sempre più raffinati, capaci di stabilire interazioni innovative e impreviste con gli esseri umani. Analizzando queste problematiche, si apre la questione su come sia possibile trovare un equilibrio tra l’avanzamento tecnologico e i principi etici così come le responsabilità sociali, al fine di garantire che l’IA continui a fungere da alleato per il genere umano piuttosto che diventare una potenziale minaccia.

  • Strategia rivoluzionaria: l’audace mossa di Apple nel mercato AI cinese

    Strategia rivoluzionaria: l’audace mossa di Apple nel mercato AI cinese

    Nel vorticoso ambito della tecnologia in costante cambiamento, Apple si erge quale precursore nel campo della ricerca e dell’avanzamento innovativo. Eppure, il rinnovato interesse manifestato da Apple nei confronti del mercato cinese relativo all’intelligenza artificiale non si limita alla curiosità: costituisce invece una mossa strategica rilevante. Il rafforzamento dei rapporti con i colossi cinesi come Tencent e ByteDance — nota quest’ultima per essere la madre dell’applicazione TikTok — evidenzia come Apple sia intenzionata ad assicurarsi una posizione solida nella competizione all’interno del territorio cinese. Con oltre 1 miliardo e 400 milioni di cittadini ed un incremento continuo della capacità d’acquisto da parte dei consumatori locali, la Cina riveste importanza fondamentale per qualunque azienda globale che aspiri a rafforzare o incrementare le proprie quote sul mercato.
    Stando alle affermazioni di fonti vicine all’affare, il gigante americano sta attivamente pianificando l’integrazione nei dispositivi venduti in Cina di modelli proprietari d’IA sviluppati dai concorrenti cinesi. Questo approccio strategico è motivato non soltanto da aspetti commerciali ma anche dall’esigenza imposta da normative rigorose emanate dal governo locale. Di fatto, le piattaforme di AI generativa, tra cui ChatGPT di OpenAI, sono monitorate rigorosamente e il loro utilizzo è vietato sul suolo cinese senza l’autorizzazione preventiva del governo. Ciò induce Apple a ricercare strategie locali che rispondano ai requisiti normativi e che riescano a competere efficacemente con le offerte tecnologiche di concorrenti locali come Huawei e Xiaomi.

    la sfida della regolamentazione cinese

    Il rigido controllo governativo esercitato dalla Cina sulle tecnologie all’avanguardia, tra cui l’intelligenza artificiale, si manifesta attraverso norme severe che impongono l’archiviazione interna dei dati ottenuti tramite servizi digitali. Un aspetto critico emerge per compagnie internazionali come Apple nel loro tentativo di ampliare l’ecosistema senza trasgredire la normativa sulla riservatezza degli utenti. Un esempio lampante è rappresentato dall’accordo di collaborazione siglato tra Apple e Guizhou-Cloud Big Data (GCBD), concepito per assicurare la localizzazione dei dati iCloud appartenenti agli utenti cinesi dentro i confini nazionali della Cina stessa. Questa strategia salvaguarda Apple da potenziali infrazioni alle normative statunitensi sulla tutela dei dati personali e mette in luce la complicata trama diplomatico-legale necessaria alle imprese per operare sul vastissimo mercato cinese.

    Tenendo presente il complesso contesto normativo vigente nel Paese asiatico, Apple individua nelle alleanze con società come Tencent e ByteDance una modalità astuta per affrontare tale scenario complesso, garantendo che le funzionalità d’intelligenza artificiale presenti sui suoi dispositivi rimangano conformi alle esigenti leggi cinesi. Ciononostante, trasmettere o condividere informazioni con controparti situate in Cina implica pericoli insiti. Tra i principali vi è l’angoscia che le autorità cinesi possano ottenere accesso ai dati degli utenti; questo è stato un argomento di discussione in Occidente, soprattutto nei confronti dell’azienda ByteDance.

    innovazione e concorrenza nel mercato cinese degli smartphone

    Collaborare con giganti della tecnologia come Tencent e ByteDance è una mossa resa essenziale dall’espansione veloce della concorrenza nel settore high-tech cinese. Colossi quali Huawei hanno sfruttato appieno i modelli linguistici di intelligenza artificiale elaborati interamente al loro interno; questo è stato particolarmente vero per il Mate 70 che ha visto un sorprendente balzo nelle vendite del 42% nel terzo trimestre, in netto contrasto con una leggera flessione delle vendite degli iPhone dello 0,3%. Questa abilità strategica fornisce alle aziende locali un consistente vantaggio rispetto ai concorrenti internazionali.

    Di fronte a tale scenario competitivo, Apple non può semplicemente offrire gli attuali iPhone dotati delle funzionalità limitate presenti sul mercato cinese. La mancanza di sofisticate tecnologie AI rende inevitabilmente meno desiderabili i loro dispositivi rispetto a quelli dei concorrenti nazionali creati su misura per gli utilizzatori cinesi. Le discussioni tra Apple e aziende come Tencent e ByteDance forniscono alla casa statunitense l’occasione ideale per incrementare le caratteristiche del suo prodotto integrando funzionalità AI coinvolgenti che possano efficacemente confrontarsi con le innovazioni locali. In tal maniera, Apple si adatta efficacemente al contesto delle normative cinesi e simultaneamente incrementa l’appeal dei suoi prodotti all’interno di un mercato che è tanto vivace quanto agguerrito.

    verso una nuova era tecnologica: implicazioni e prospettive

    La portata delle collaborazioni stabilite da Apple con colossi come Tencent e ByteDance assume rilevanza profonda, attraversando settori che spaziano dalle dinamiche geopolitiche all’innovazione tecnologica emergente. La competizione tra grandi potenze del settore hi-tech come Stati Uniti e Cina mette a nudo una rete complessa d’influenze che percorrono entrambi i lati del Pacifico. In questo contesto sfaccettato, Apple si trova ad operare cercando di mantenere l’equilibrio fra l’impegno verso la protezione della privacy dei suoi utenti e il mantenimento della propria posizione nei mercati internazionali.

    Le tattiche adottate suggeriscono l’inizio potenziale di una nuova fase nelle alleanze tecniche dove lo scambio delle risorse avviene oltre confini storicamente chiusi, rappresentando un punto d’inversione evolutiva. Tuttavia, simili cooperazioni potrebbero avere un costo non trascurabile fatto di complessi compromessi sulle questioni legate alla sicurezza dei dati e alla sovranità digitale – tematiche urgenti per le imprese coinvolte.

    riflessioni sugli sviluppi futuri dell’intelligenza artificiale

    L’intelligenza artificiale (IA) costituisce una delle rivoluzioni tecnologiche più significative del presente periodo storico, capace di trasformare profondamente il nostro rapporto con la tecnologia e le relazioni interpersonali. Nella cornice della storia riguardante Apple in Cina emerge come l’intelligenza artificiale generativa sia in grado non solo di incrementare le funzioni dei dispositivi elettronici, ma anche di potenziare lo spirito innovativo grazie a sinergie internazionali. Dai primi tentativi nell’apprendimento automatico e nello sviluppo delle reti neurali è nata l’aspirazione collettiva alla creazione di macchine capaci di emulare i compiti cognitivi umani.

    Una comprensione avanzata dell’intelligenza artificiale comprende nozioni riguardanti la personalizzazione sofisticata: qui i modelli sono programmati per non semplicemente adattarsi alle risposte degli utenti, bensì per evolversi insieme ad essi anticipandone esigenze e desideri futuri. Queste competenze sono destinate a cambiare non solamente il funzionamento operativo aziendale, ma anche a plasmare nuove aspettative da parte dei consumatori.

    Alla luce delle riflessioni su come Apple possa effettivamente inserire con successo nei suoi sistemi gli algoritmi sviluppati dai cinesi emergono necessari dibattiti sulle ripercussioni etiche e sociali implicite in questi processi collaborativi internazionali. Il crescente interesse planetario per i temi della privacy e della sovranità dei dati solleva domande cruciali non soltanto su come sfruttare l’intelligenza artificiale, ma soprattutto su chi esercita il controllo su queste avanzate tecnologie. Le decisioni prese oggi da colossi quali Apple possono avere un impatto significativo nel plasmare la direzione del dibattito pubblico sulla relazione tra tecnologia e società nei decenni a venire.

  • Crisi dei  dati nell’IA: una  minaccia per il futuro dell’intelligenza artificiale?

    Crisi dei dati nell’IA: una minaccia per il futuro dell’intelligenza artificiale?

    Durante una conferenza a Vancouver, Ilya Sutskever, figura di spicco nel campo dell’intelligenza artificiale e cofondatore di OpenAI, ha sollevato una questione cruciale: l’esaurimento dei dati per l’addestramento dei modelli di intelligenza artificiale, in particolare i Large Language Models (LLM). Questi modelli, come ChatGPT, si basano su enormi quantità di dati per apprendere e generare linguaggio umano. Tuttavia, la disponibilità di dati di qualità sta diminuendo, creando un potenziale ostacolo alla crescita futura dell’IA. Sutskever ha paragonato questa situazione all’esaurimento dei combustibili fossili, sottolineando che, così come per l’energia, anche per l’IA è necessario trovare nuove fonti di “carburante”.

    Nuove Frontiere per l’Addestramento dell’IA

    In risposta all’esaurimento progressivo delle informazioni disponibili sulla rete, gli studiosi si avventurano verso nuovi percorsi per formare l’intelligenza artificiale. Una possibilità è quella di fare affidamento sui dati autonomamente generati dagli stessi sistemi IA, creando così un ciclo continuo di apprendimento autogestito. Diversi esperti raccomandano anche il ricorso a dati che provengono direttamente dal mondo reale piuttosto che basarsi esclusivamente su fonti digitali. Inoltre, lo sviluppo del calcolo quantistico potrebbe aprire prospettive inedite: con la sua capacità distintiva di affrontare problemi complessi con rapidità e precisione superiore. Nonostante questo campo tecnologico sia ancora allo stadio embrionale del suo sviluppo, esso promette di accelerare l’elaborazione dei dati e potenziare le capacità dell’intelligenza artificiale.

    Il Rallentamento dei Progressi nell’Intelligenza Artificiale

    L’intelligenza artificiale ha vissuto negli anni recenti una straordinaria espansione, ma attualmente i progressi sembrano aver subito una decelerazione. Modelli come GPT-5 e Gemini non presentano significativi avanzamenti rispetto alle versioni passate, destando inquietudine nel settore high-tech. La scarsità di nuovi dati d’eccellente fattura obbliga le compagnie a impiegare dati generati sinteticamente da altri sistemi IA. Tuttavia, questo metodo può determinare un ciclo problematico di creazione di dati inadeguati, compromettendo la qualità dei modelli stessi. Nonostante questi ostacoli, persistono sforzi significativi delle aziende per investire nella ricerca e nello sviluppo al fine di oltrepassare lo stallo corrente.

    Verso un Futuro di Intelligenza Artificiale Consapevole

    Sebbene oggi vi siano delle sfide da affrontare, il futuro dell’IA si annuncia carico di potenzialità affascinanti. Secondo Sutskever, ci si aspetta che i modelli di IA si evolvano fino ad emulare il pensiero umano, sviluppando abilità avanzate nel ragionamento e una più ricca comprensione dei contesti in cui operano. Tale evoluzione potrebbe portare all’emergere di macchine dotate di superintelligenza capaci di scelte autonome e avvedutezza propria. Malgrado ciò, con il crescere della complessità e indipendenza aumenta anche il pericolo derivante da comportamenti non prevedibili. Pertanto è fondamentale che gli sforzi della ricerca mirino ad assicurare che l’IA rimanga conforme ai valori umani, riducendo al minimo i rischi associati a possibili tecnologie ingovernabili.

    Conclusioni: Un Nuovo Capitolo per l’Intelligenza Artificiale

    Attualmente, l’intelligenza artificiale si trova dinanzi a un crocevia complesso fatto di sfide considerevoli e opportunità incredibili da esplorare. Tra le fondamenta del settore IA c’è il machine learning, centrato sullo sviluppo degli algoritmi attraverso i dati per affinare le prestazioni nel tempo. Con la progressiva scarsità dei dati disponibili emerge la necessità impellente di ideare strategie di apprendimento efficiente per raggiungere risultati ottimali senza sovraccaricare le risorse disponibili. Inoltre, si profila il sofisticato concetto di meta-learning, ovvero apprendere a imparare; una caratteristica che permette ai modelli di adeguarsi prontamente alle novità basandosi su una quantità limitata di informazioni. Riflettendo sulle prospettive future dell’IA si apre una riflessione su come orientare lo sviluppo tecnologico in modo tale da preservare e accrescere il nostro potenziale umano invece che metterlo in pericolo.

  • Quali sfide affronta OpenAI dopo la multa del garante italiano

    Nel mese di dicembre del 2024, l’autorità italiana preposta alla tutela dei dati personali, conosciuta come il Garante, ha portato a termine un’indagine significativa nei confronti della compagnia statunitense OpenAI, sviluppatrice del chatbot ChatGPT. Questa inchiesta si è conclusa con una sanzione ammontante a 15 milioni di euro causata da infrazioni relative al trattamento delle informazioni personali. L’intervento si è reso necessario dopo che OpenAI non aveva segnalato prontamente una fuga di informazioni avvenuta nel marzo dell’anno precedente e aveva gestito i dati degli utenti senza disporre delle dovute basi legali autorizzative. La compagnia inoltre non rispettava le norme sulla trasparenza né prevedeva misure atte a controllare l’età degli utenti, esponendo i minori al rischio d’incontrare contenuti inadatti.

    In aggiunta a ciò, al fine di aumentare la consapevolezza pubblica circa le funzionalità del sistema ChatGPT e informare sugli obblighi legati alla gestione delle informazioni sensibili dell’utenza da parte dell’azienda tecnologica, il Garante ha imposto ad OpenAI l’avvio di una campagna comunicativa della durata semestrale. Tale misura è stata resa attuabile grazie ai poteri ampliati dall’articolo 166 comma 7 del Codice Privacy. L’iniziativa mira a elevare il livello di consapevolezza dell’opinione pubblica circa la gestione e l’impiego dei dati personali da parte di ChatGPT, permettendo ai fruitori di far valere i propri diritti secondo le disposizioni del GDPR.

    Le Reazioni e le Implicazioni Internazionali

    La decisione del Garante italiano ha suscitato reazioni contrastanti a livello internazionale. OpenAI ha sostenuto che la multa sia eccessiva, evidenziando che corrisponde a circa venti volte gli introiti guadagnati nel medesimo periodo in Italia. La società ha espresso l’intenzione di presentare ricorso, sostenendo che l’approccio del Garante potrebbe compromettere le ambizioni dell’Italia nel campo dell’intelligenza artificiale.

    Nel frattempo, il caso è stato trasmesso all’Autorità di protezione dati irlandese, in conformità con la regola del “one stop shop” del GDPR, poiché OpenAI ha stabilito il suo quartier generale europeo in Irlanda. Questo trasferimento sottolinea la complessità della regolamentazione dell’intelligenza artificiale a livello europeo e la necessità di un approccio coordinato tra le diverse autorità nazionali.

    La Campagna di Comunicazione e la Sensibilizzazione del Pubblico

    Un fattore fondamentale contenuto nel decreto del Garante impone a OpenAI di avviare una campagna istituzionale volta alla comunicazione pubblica. Questo sforzo è orientato a informare la cittadinanza sui loro diritti, insieme ai meccanismi che tutelano i dati personali quando si tratta dell’impiego dell’intelligenza artificiale generativa. Bisognerà sensibilizzare le persone sul modo in cui possono ostacolare l’utilizzo dei loro dati nell’addestramento delle IA, nonché sulle modalità per esercitare diritti come opposizione, modifica o rimozione dei dati.

    Tale iniziativa simboleggia un passo significativo verso la trasparenza aumentata e la coscienza diffusa riguardante l’uso delle informazioni personali attraverso le tecnologie intelligenti. Presenta altresì un’opportunità educativa per gli utenti rispetto alla protezione della propria riservatezza e incoraggia uno scambio aperto tra aziende high-tech ed enti normativi.

    Un Nuovo Patto Sociale per l’Intelligenza Artificiale

    L’esempio fornito da OpenAI e ChatGPT sottolinea quanto sia essenziale raggiungere un nuovo accordo sociale fra innovazione tecnologica e la salvaguardia dei dati personali. L’intelligenza artificiale, pur offrendo vastissime potenzialità, rende imprescindibile la garanzia del rispetto dei diritti degli utenti nonché uno sviluppo etico e responsabile delle tecnologie.

    Nel campo dell’intelligenza artificiale, un principio chiave correlato è quello del privacy by design, il quale consiste nell’incorporare la protezione dei dati fin dalla progettazione iniziale di un sistema. Questo metodo assicura che la tutela della privacy rappresenti un nucleo essenziale piuttosto che una caratteristica aggiuntiva a posteriori.
    Un’altra nozione sofisticata è quella del legittimo interesse, inteso come fondamento giuridico per trattare i dati personali. Questo concetto esige il bilanciamento tra gli interessi legittimi dei titolari del trattamento e le libertà fondamentali degli individui coinvolti. È una questione complessa richiedente valutazioni meticolose per ciascun caso specifico. Esaminando tali aspetti, emerge la possibilità di una coesistenza produttiva tra regolamenti e innovazioni. Questo scenario può portare alla creazione di un futuro in cui l’intelligenza artificiale agisca come un contributore al benessere sociale, nel totale rispetto dei diritti essenziali di ogni persona.

  • Come sta rivoluzionando l’intelligenza artificiale l’istruzione nelle scuole italiane?

    L’istituto tecnico G. Marconi di Dalmine, nella provincia di Bergamo, emerge come una delle scuole più innovative nel campo educativo italiano. Nel primo trimestre dell’anno scolastico 2024, la scuola ha avviato un progetto innovativo: l’integrazione dell’intelligenza artificiale nella didattica quotidiana. Gli studenti di una classe quinta sono stati coinvolti nell’istruire un’intelligenza artificiale sulla Divina Commedia, un’esperienza che ha arricchito la loro comprensione di questo classico della letteratura italiana, in un modo originale e accattivante. Gli alunni hanno accolto l’AI con naturalezza, aggiungendo un banco in più per questa nuova “membro della classe” e iniziando a interagire con essa tramite l’inserimento di dati e la creazione di prompt idonei.
    L’istituto Marconi accoglie oltre 1200 studenti in 49 classi, offrendo corsi che spaziano da Chimica, Elettronica a Meccanica, Informatica e Telecomunicazioni. Nel giugno 2024, la scuola è stata premiata come uno dei dieci finalisti del “World’s Best School Prizes 2024” nella categoria innovazione, un riconoscimento di prestigio internazionale. Questo traguardo è stato raggiunto grazie all’adozione di un’intelligenza artificiale avanzata chiamata Martha, sviluppata da “The European House ? Ambrosetti”. Martha è progettata per scoprire e far emergere le potenzialità e le abilità degli studenti, aiutando a definire percorsi formativi e professionali su misura.

    Intelligenza Artificiale e Personalizzazione dell’Istruzione

    L’approccio d’avanguardia che prevede l’introduzione dell’IA nei contesti educativi non è più un raro evento. Mondadori Education ha lanciato un progetto che intende incentivare l’uso dell’intelligenza artificiale negli ambienti formativi, sottolineando il significato fondamentale della personalizzazione dei percorsi di apprendimento. Grazie a sofisticati strumenti di IA, è possibile adattare le attività didattiche alle peculiarità di ciascun alunno, migliorando così il rendimento complessivo e incentivando l’inclusione sociale e scolastica. Tale metodologia mira a far risaltare i talenti personali degli studenti, preparando in contemporanea le nuove generazioni ad affrontare le sfide future, fornendo competenze essenziali per gestire e comprendere in modo critico le tecnologie emergenti.
    Gli insegnanti possono usufruire del supporto offerto da Mondadori Education attraverso materiale didattico di avanguardia come webinar o dibattiti con esperti del settore, per offrire un’educazione aggiornata sull’impiego dell’IA nei percorsi didattici; tutto ciò garantendo un’attenta considerazione delle delicate tematiche etiche e multidisciplinari inerenti a tali innovazioni tecnologiche, come sicurezza informatica e tutela dei dati sensibili, al fine di promuovere comportamenti digitali responsabili e consapevoli verso la società futura.

    Progetti di Ricerca e Sperimentazione

    Il progetto “imparIAmo a scuola con l’Intelligenza Artificiale”, coordinato dal Centro Studi IMPARA DIGITALE, rappresenta un’importante iniziativa nel campo educativo. Questa attività di ricerca-azione coinvolge insegnanti e studenti delle scuole secondarie di secondo grado, con l’obiettivo di sperimentare l’utilizzo educativo dell’IA per la creazione di contenuti. Mira a sostenere le scuole nel loro cammino verso un impiego più cosciente delle tecnologie AI, favorendo una comprensione critica dei cambiamenti in corso nel sistema educativo.

    Il progetto è strutturato in due percorsi: uno focalizzato sull’integrazione dell’IA nelle pratiche didattiche tradizionali e l’altro basato sulle esperienze dirette degli studenti con l’utilizzo dell’IA. Entrambi i percorsi includono lo sviluppo di unità educative che prevedono l’utilizzo dell’IA come strumento di supporto, mirando ad arricchire e potenziare i contenuti curricolari offerti dalla scuola.

    Conclusioni e Riflessioni sul Futuro dell’Istruzione

    L’introduzione dell’intelligenza artificiale nell’ambiente scolastico si propone come un’opportunità senza precedenti, ma rappresenta anche una sfida delicata da affrontare. L’applicazione dell’IA possiede il potenziale di adattare l’insegnamento alle esigenze individuali degli studenti, aumentare l’inclusione nelle classi e preparare i giovani ai ruoli professionali futuri. Tuttavia, è essenziale valutare le conseguenze etiche e sociali associate all’uso di queste tecnologie innovative per determinare un approccio responsabile e gestito.
    In questo contesto si inserisce il concetto chiave di “AI literacy”: la capacità di riconoscere e utilizzare in modo consapevole l’intelligenza artificiale. Una competenza cruciale nell’attuale contesto moderno nel quale l’IA sta acquisendo sempre più rilevanza.
    Esiste inoltre un pensiero critico, noto come “AI thinking”, che riguarda la facoltà umana di effettuare analisi creative rispetto all’applicazione pratica della stessa Intelligenza Artificiale. Tale prospettiva incoraggia considerazioni approfondite sui benefici insieme ai potenziali rischi delle tecnologie avanzate della ricerca, supportando una comprensione integrale degli effetti sociali delle tecnologie emergenti che inevitabilmente influiranno su un modo di vivere collettivamente sempre più globalizzato, digitale ed interconnesso.