AI: bolla speculativa? Il punto della situazione

Negli ultimi anni, il dibattito sull’intelligenza artificiale ha dominato il panorama digitale, con molti esperti convinti che l’IA avrà un impatto profondo sulle nostre vite. Tuttavia, ad agosto si è verificato un brusco calo finanziario che ha sollevato preoccupazioni su una possibile bolla, anche se la situazione è poi rientrata.

Gli sviluppi recenti

OpenAI continua a essere un leader del settore, avanzando rapidamente nello sviluppo di nuove versioni di ChatGPT. Quest’anno è stato lanciato GPT-4, ora disponibile per tutti, espandendo ulteriormente l’accesso al modello. OpenAI ha anche presentato Sora, uno strumento rivoluzionario per la trasformazione del testo in video, consolidando la sua posizione di primato.

Google, pur essendo un concorrente formidabile, non è ancora riuscito a tenere il passo con OpenAI. Il suo progetto Gemini ha subito varie evoluzioni, ma non è ancora all’altezza del suo principale rivale. Tuttavia, con le sue enormi risorse finanziarie, Google potrebbe fare rapidi progressi in futuro.

OpenAI: successi e turbolenze

Nonostante i successi, all’interno di OpenAI ci sono state tensioni. La vicenda dell’estromissione e successivo reintegro di Sam Altman ha portato a contrasti interni. Helen Toner, ad esempio, ha lasciato l’azienda per divergenze di opinione, mentre Jan Leike è passato alla concorrenza per continuare il suo lavoro sull’IA. La rapida crescita ha portato anche a sfide interne, come spesso accade in situazioni di espansione accelerata.

Apple e NVIDIA in gioco

Due altri giganti tech, Apple e NVIDIA, hanno manifestato un crescente interesse per l’IA generativa. NVIDIA ha registrato enormi profitti grazie ai suoi chip ottimizzati per l’IA, mentre Apple, pur essendo rimasta indietro rispetto ai concorrenti, non può permettersi di perdere questo treno e sta valutando investimenti significativi in OpenAI, seguendo le orme di Microsoft.

Una corsa sempre più affollata

Anche altre nazioni stanno avanzando nel campo dell’IA, con soluzioni innovative che emergono dall’Europa e dal Giappone, pronte a ridefinire il settore. Il 2024 si preannuncia come un anno cruciale, con una competizione sempre più serrata tra le potenze mondiali nel campo dell’intelligenza artificiale.

Nel frattempo, Pechino ha lanciato due nuovi modelli in grado di competere con Sora. Bytedance, l’azienda dietro TikTok, ha sviluppato modelli per convertire testo in video, e potrebbero emergere altri sfidanti a sorpresa nel prossimo futuro.

Crowdstrike: i problemi continuano

Uno dei venerdì più complicati per il settore informatico mondiale rischia di trasformarsi in una questione legale per CrowdStrike.

Cosa è accaduto

Il 19 luglio, diverse grandi aziende in tutto il mondo hanno visto i loro sistemi informatici andare in blocco. Inizialmente, molti hanno ipotizzato che si trattasse di un vasto attacco hacker, ma la situazione si è rapidamente evoluta. Successivamente, l’attenzione si è concentrata su Azure, la piattaforma cloud di Microsoft, una delle più importanti al mondo, che poteva essere responsabile del problema.

Il pubblico generale non era particolarmente familiare con CrowdStrike fino a quando non è balzata agli onori della cronaca proprio quel venerdì 19 luglio. Infatti, è stato presto rivelato che il problema era causato da un bug all’interno di un aggiornamento del software antivirus fornito dall’azienda. Una singola riga di codice era sufficiente a mandare in tilt più di otto milioni di computer.

Come è stato risolto

Mentre il traffico aereo rimaneva paralizzato, causando notevoli ritardi in tutto il mondo, i tecnici erano al lavoro per trovare una soluzione che potesse ripristinare la normalità.

In Italia, la situazione non è stata così grave poiché CrowdStrike non è così ampiamente utilizzato come in altri paesi, sebbene ci siano stati problemi significativi ai caselli autostradali. L’aeroporto di Fiumicino ha invece registrato diversi disagi nel settore aeroportuale.

Le operazioni di ripristino hanno incluso anche l’uso di chiavette USB per intervenire su quei sistemi che non potevano essere riparati da remoto. Senza dubbio, questi disagi hanno causato problemi a numerose grandi aziende in tutto il mondo.

Delta Air

Abbiamo menzionato i disagi nei trasporti aerei, ed è proprio qui che i problemi informatici potrebbero trasformarsi in questioni legali. Delta Air, una grande compagnia aerea statunitense, ha infatti annunciato l’intenzione di chiedere un risarcimento per i danni subiti a causa dell’interruzione del servizio.

Infatti, 1,3 milioni di passeggeri pronti a salire a bordo dei voli Delta Air hanno subito ritardi e cancellazioni, con un danno che la compagnia stima intorno ai 500 milioni di dollari. CrowdStrike ha dichiarato che la responsabilità dell’azienda è limitata per quanto riguarda questi disagi, ma ciò non è stato sufficiente a convincere gli avvocati.

Questa causa potrebbe rappresentare una svolta significativa; se infatti la compagnia aerea dimostrasse che non sono state rispettate le norme prima di rilasciare l’aggiornamento difettoso, questo potrebbe costituire un elemento di colpevolezza, in grado di innescare ulteriori cause per i disservizi.

La situazione è ancora in evoluzione e si attendono sviluppi nelle prossime settimane.

IA e lavoro: presente e futuro

Chip IA

Da quando l’IA generativa è apparsa sul web si parla molto dell’impatto che questa potrebbe avere sui posti di lavoro. In realtà il quadro è molto più complesso e include l’IA in generale. 

Non solo ChatGPT

Si parla di intelligenza artificiale come se questa comprendesse soltanto ChatGPT e concorrenti ma in realtà la situazione è alquanto diversa.

Basti pensare che il tentativo di creare un’intelligenza artificiale paragonabile a quella di un umano iniziano nel secondo dopoguerra. 2001 Odissea nello spazio dipingeva un futuro lontano ma in realtà esprimeva paure e temi già presenti nella società degli anni settanta.

Dal 2010 in poi l’accesso a database di dati enormi ha permesso di puntare sullo sviluppo di IA sempre più complesse e in grado di risolvere problemi che prima erano inimmaginabili.

Tipi di Intelligenza Artificiale

Esistono in realtà molti tipi diversi di IA al di fuori di quella generativa. Annoveriamo: IA reattiva; IA predittiva; IA a memoria limitata; IA ristretta.

Questo per capire che la complessità è enorme e non tutte le IA sono identiche.

  • l’IA ristretta è studiata per risolvere specifici task, addestrata per dare il massimo ma solo su quella specifica area di competenza; non può risolvere problemi diversi da quelli per i quali è addestrata se non con l’aiuto di altre applicazioni;
  • l’IA generativa è quella che colleghiamo a ChatGPT, diciamo che è è più adatta in campi come quello creativo nel quale c’è bisogno di creare differenti tipi di contenuti;
  • l’IA reattivareagisce sulla base di un perimetro di regole stabilito e può fare poco altro. Un esempio è stata l’ia che IBM utilizzò nella sfida contro il campione di scacchi Kasparov. Lo battè ma in realtà non fu una grande dimostrazione di intelligenza, quanto di “forza bruta” poiché questa poteva analizzare tutte le mosse possibili;
  • l’IA predittiva è quella che, ad esempio, ci consiglia un film su Netflix o un prodotto su Amazon. Apprende dai dati che le vengono forniti e, teoricamente, migliora nel tempo;
  • l’IA a memoria limitata è simile a quella ristretta, infatti ha delle informazioni che vengono aggiornate di continuo e che permettono di prendere decisioni rapide e con efficacia. Ad esempio si utilizza nelle auto per assistere alla guida.

Le previsioni del MIT

Nel mondo della manifattura la maggior parte dei lavori richiedono l’utilizzo della vista. Sia che si assembli qualcosa, sia che si controlli qualitativamente un pezzo, o che si svolgano mansioni simili, la vista è essenziale.

Il MIT di Boston ha deciso di studiare l’IA non dal punto di vista della rimpiazzabilità dell’uomo ma dal punto di visto della convenienza economica. 

La buona notizia è che per il momento il numero di posti di lavoro, che richiedono la vista come requisito fondamentale, che possono essere rimpiazzati dall’IA con un vantaggio economico si aggirano intorno al 3%. Questo significa che l’uomo è ancora l’opzione migliore.

La cattiva notizia è che entro il 2030 questo numero salirà intorno al 40%. Il fattore principale è il probabile declino dei costi per aumentare la capacità dell’IA.

Il 2023 in numeri

Il 2023 si avvicina alla conclusione, e per comprendere appieno l’anno trascorso, esploreremo alcune cifre significative. Innanzitutto, l’intelligenza artificiale (IA) emerge come un fenomeno in crescita, catalizzato dalla rapida diffusione di ChatGPT, l’app che ha raggiunto i 100 milioni di utenti più velocemente di ogni altra. L’IA si prospetta come protagonista non solo nei contesti aziendali ma anche nella vita quotidiana delle persone. Secondo le statistiche di Authority Hackers:

  • Il 35% delle imprese ha iniziato a utilizzare in qualche forma l’IA.
  • Il 77% dei dispositivi incorpora l’IA in vario modo.
  • L’85,1% degli utenti produce contenuti tramite IA.
  • Entro il 2030, si prevede che l’IA contribuirà al PIL globale con circa 15.7 trilioni di dollari.
  • Il 52% degli esperti crede che l’IA sostituirà alcuni lavori, ma creerà anche nuove opportunità occupazionali.
  • Il 44% dei marchi nel settore automobilistico utilizza l’IA.
  • ChatGPT ha raggiunto la straordinaria cifra di 1.7 miliardi di utenti.

Questi dati testimoniano l’impatto significativo dell’IA in ogni settore della società, anticipando una rivoluzione ancora agli inizi, destinata a influenzare l’ambito economico e non solo, con i governi già impegnati nella regolamentazione del suo sviluppo.

Sfide Economiche del 2023

Nel panorama economico del 2023, la spirale inflazionistica post-pandemica è rimasta una protagonista. Con incrementi significativi dei tassi d’interesse sia negli Stati Uniti che nell’Unione Europea, passando dall’1,25% a settembre 2022 al 4,50% attuale, la Banca Centrale Europea ha recentemente optato per un secondo stop, prevedendo una discesa nel 2024. Le stime per il Prodotto Interno Lordo globale nel 2023 si attestano intorno al 2,9%, riflettendo una ripresa economica ancora in fase di consolidamento. Per il 2024, le previsioni indicano una leggera flessione al 2,7%, seguita da un ritorno al 3% nel corso del 2025, con l’allentamento dei tassi d’interesse che dovrebbe stimolare investimenti e liquidità in Europa e negli USA.

Prospettive per la Produzione Industriale

Nell’Unione Europea, la produzione industriale ha registrato un calo nel corso del 2023, con una prospettiva di ripresa nei prossimi due anni (2024-2025). I settori più colpiti sono stati macchinari e strumenti industriali, mentre cibo e beni di consumo hanno subito una diminuzione meno marcata.

Il 2023 sui Social: Numeri e Tendenze

Infine, nel contesto sociale del 2023, emergono numeri interessanti che riflettono l’importanza dei social nella vita quotidiana:

  • Gli utenti dei social hanno raggiunto la cifra di 4.95 miliardi a ottobre 2023.
  • La crescita degli utenti è stata di circa 6.8 al secondo.
  • Il tempo medio trascorso sui social è stato di circa 2 ore e 24 minuti al giorno.
  • Gli utenti hanno utilizzato in media 6.7 piattaforme social al mese.
  • Facebook conta più di 3 miliardi di utenti attivi al mese.
  • Instagram registra circa 2 miliardi di utenti attivi al giorno.
  • Il 48.7% degli utenti utilizza i social per mantenere i contatti con amici e parenti.

Questi dati delineano il quadro sociale del 2023, evidenziando la pervasività e l’influenza crescente dei social nella vita di miliardi di persone.

Password più usate nel 2023: rischi per la sicurezza

Password manager

Le prime 5 posizioni

Esaminiamo le prime cinque posizioni, cominciando dalla quinta.

  1. 12345678: Una sequenza numerica classica, apparentemente sicura data la lunghezza, ma in realtà vulnerabile.
  2. Password: Una scelta poco impegnativa per gli hacker.
  3. password: Utilizzare solo caratteri minuscoli rende l’individuazione ancora più semplice.
  4. 123456: Ancora più corta della precedente, quindi estremamente facile da individuare.
  5. admin: La password di default, praticamente equivalente a non averne affatto.

I rischi dell’utilizzo di password semplici

Questi schemi comuni sono le prime combinazioni provate in caso di attacco. Seguire alcune regole basilari è cruciale per evitare di cadere nelle trappole degli hacker.

  1. Lunghezza: Utilizzare almeno una password di 12 caratteri riduce il rischio di furto;
  2. Diversificazione: Sfruttare tutte le opzioni disponibili sulla tastiera, inclusi maiuscole, minuscole, numeri e simboli;
  3. Unicità: Evitare di utilizzare la stessa password su più siti web per mantenere un elevato livello di sicurezza.

Anche le password complesse non sono immuni

I consigli sopra rimangono validi, ma sorge un altro problema: come ricordare password complesse? Spesso diventa impraticabile memorizzare numerose sequenze casuali. Qui entrano in gioco servizi dedicati.

Password manager: strumenti sicuri?

Archiviare le password in un’unica posizione solleva dubbi sulla sicurezza complessiva del sistema. Tuttavia, ci sono regole da seguire per massimizzare la sicurezza.

  1. Utilizzare una password d’accesso sicura esclusivamente per il servizio.
  2. Generare password casuali attraverso il servizio per aumentare la sicurezza.
  3. Evitare di condividere la password.
  4. Non creare backup di testo semplice nel caso il servizio diventi inutilizzabile.

Questo approccio assicura un utilizzo abbastanza sicuro per gli utenti, certamente più che l’uso di password comuni.

Attenzione al Phishing

La minaccia principale non è l’uso di forza bruta per individuare le password, ma gli inganni per sottrarle. Gli attacchi di phishing sono sempre più diffusi, presentandosi attraverso email o SMS che simulano situazioni urgenti. Questi inganni minano la percezione della sicurezza e possono portare l’utente a rivelare la propria password senza alcuno sforzo da parte degli hacker.

La tua azienda cambiata da una canzone?

L’ultima canzone targata “The Beatles” ha recentemente fatto il suo debutto sul mercato, rappresentando un evento storico. Nonostante la formazione di Liverpool sia da tempo sciolta e due dei quattro membri siano venuti a mancare nel corso degli anni, tutti hanno partecipato a questa registrazione. Ma come è stato possibile? E quale significato ha per le aziende?

Una Breve Storia della Traccia

La traccia ha una storia che risale alla fine degli anni Settanta, quando John Lennon registrò un primo demo con voce e pianoforte. Questo demo, inizialmente dimenticato in un cassetto, è diventato il punto di partenza di questa nuova canzone. Tuttavia, la morte di Lennon mise fine alla sua opera. Nel 1994, Paul McCartney ricevette due cassette da Yoko Ono contenenti demo del defunto marito, dando il via a una collaborazione tra i tre membri superstiti.

Sfide Tecnologiche da Superare

Il demo originale, registrato su una singola traccia con pianoforte e voce, presentava sfide tecniche significative. L’eliminazione del rumore di fondo e la separazione tra strumento e voce risultavano complesse. Dopo giorni di sforzi, Paul McCartney, Ringo Starr e George Harrison si arresero, poiché all’epoca mancavano le tecnologie necessarie per migliorare una registrazione così compromessa.

Trent’anni di Oblio

Per trent’anni, la traccia rimase nel cassetto, ma Paul McCartney non abbandonò mai l’idea di pubblicarla. Nonostante le difficoltà, rimase sempre interessato e pronto a portare avanti il progetto.

L’Intervento Rivoluzionario dell’Intelligenza Artificiale

L’anno scorso è stato segnato dall’esplosione della tecnologia legata all’Intelligenza Artificiale (IA). La possibilità di isolare la voce dallo strumento è diventata realtà grazie a nuove applicazioni dell’IA. Questo sviluppo ha permesso finalmente di completare l’opera. Non conosciamo il software specifico utilizzato, ma il risultato è senza dubbio di alta qualità.

Applicazioni dell’IA in Diversi Campi

La tecnologia, con particolare riferimento all’IA, sta aprendo nuove strade e opportunità di business in settori diversi. È essenziale non solo rimanere aggiornati sulle ultime novità, ma anche analizzarle criticamente.

Ad esempio, Amazon utilizza l’IA per consigliare prodotti ai clienti, promettendo consigli sempre più precisi. Nel settore automobilistico, l’IA è massicciamente impiegata per la creazione di modelli di guida autonoma, segnando progressi significativi. PayPal utilizza l’IA per identificare comportamenti sospetti, dimostrando come la tecnologia possa intervenire tempestivamente in casi di frode, un tempo considerato impensabile fino a qualche anno fa.

Batterie al litio: storia e futuro

Nel corso dei decenni, il litio ha assunto un ruolo cruciale nello sviluppo tecnologico moderno. Molti degli oggetti che fanno parte della nostra vita quotidiana, come dispositivi elettronici portatili, devono il loro funzionamento alle batterie al litio. Ma da dove proviene questo elemento essenziale?

Un’invenzione che attraversa il tempo

La tecnologia delle batterie agli ioni di litio ha radici profonde nel passato. Le prime ricerche su questa innovazione risalgono agli anni Sessanta del Novecento, sebbene all’epoca fossero ancora principalmente di natura teorica e prive di scopi commerciali. Fu solo tra il 1974 e il 1976 che Jürgen Otto Besenhard propose la costruzione delle prime batterie agli ioni di litio. Tuttavia, queste prime batterie avevano una vita estremamente limitata a causa della mancanza di un elettrolita efficace per prevenire problemi come la decomposizione e la corrosione dei componenti.

La strada verso la commercializzazione era lunga, richiedendo circa altri quindici anni di ricerche e sviluppo per creare batterie efficienti che potessero essere introdotte sul mercato. La priorità era evitare di commercializzare prodotti con una breve durata e costi proibitivi.

La svolta commerciale e il cambio di paradigma

Nel 1991, Sony presentò la prima batteria agli ioni di litio, segnando l’inizio di un’epoca in cui dispositivi ricaricabili divennero diffusi in molteplici settori. Ad esempio, la console portatile Game Boy di Nintendo rappresentò una rivoluzione, consentendo ai giocatori di godersi i videogiochi in mobilità senza essere vincolati alla console domestica.

Nel settore della produzione, strumenti come trapani e seghe circolari divennero dotati di batterie al litio ricaricabili, rivoluzionando il concetto di portabilità dei prodotti.

La rivoluzione elettrica nell’automotive

Le batterie al litio hanno rivoluzionato anche l’industria automobilistica. A partire dal 2008, con il lancio del Tesla Roadster, il settore delle auto elettriche ha conosciuto una crescita straordinaria. La transizione ecologica europea ha accelerato questa tendenza, spingendo i produttori a conformarsi alle normative ambientali.

Produzione globale delle batterie al Litio

Le batterie al litio vengono prodotte principalmente in Giappone, Cina e Corea del Sud, con una predominanza asiatica nei volumi di produzione. Tuttavia, il Covid-19 ha messo in luce la necessità di ridurre le catene di approvvigionamento per far fronte a crisi e interruzioni della produzione. In questo contesto, si sta assistendo a un riavvicinamento della produzione di settori strategici all’Occidente.

La Gran Bretagna ha recentemente approvato la costruzione di una raffineria di litio, un passo importante per garantire la stabilità della produzione delle batterie. L’azienda responsabile si è impegnata a ridurre l’inquinamento, un aspetto rilevante nella produzione del litio.

Prospettive

Il litio ha dimostrato di essere un elemento cruciale nello sviluppo tecnologico moderno, rivoluzionando numerosi settori, dall’elettronica di consumo all’industria automobilistica. La sua produzione, sebbene originariamente concentrata in Asia, sta subendo cambiamenti significativi per garantire la stabilità e l’efficienza delle catene di approvvigionamento globali.

TSMC: nuovo impianto in Europa

Da pochi giorni è giunta la notizia a conferma del progetto di TSMC, il rinomato produttore taiwanese di microchip, riguardante la realizzazione del suo primo impianto produttivo su suolo europeo. Ma qual è il motivo sottostante l’importanza dei microchip nell’attuale panorama mondiale?

Il Nuovo Oro Nero: l’Importanza dei Microchip

Ma perché i microchip rivestono un ruolo così cruciale ai giorni nostri? Il settore dell’informatica ha attraversato un’evoluzione fulminea negli ultimi cinquant’anni: partendo dai mastodontici mainframe che occupavano intere stanze, siamo giunti rapidamente alla diffusione dei computer nelle abitazioni. Tutto ciò sembrava essere la norma fino ai primi anni del nuovo millennio, quando sono entrati in scena gli iPod e una varietà di altri dispositivi che hanno introdotto i microchip nelle tasche di ciascuno di noi.

La fase di miniaturizzazione: sempre più piccoli, sempre più potenti

Il progresso nella capacità di calcolo dei processori è spesso stato accompagnato da una corsa verso la miniaturizzazione dei componenti, mirando a ottenere maggiore efficienza energetica e potenza ulteriore. Pensate solo che le CPU che venivano montate sui PC nei primi anni del 2000, come i Pentium IV sviluppati da Intel, erano realizzate con un processo produttivo a 180 nanometri, mentre oggi siamo arrivati ad appena 4 nanometri.

Molti dispositivi, molte unità di calcolo

Ma quanti microchip vengono prodotti in tutto il mondo? Parlando di un fenomeno senza fornire numeri concreti, rischiamo di non catturare appieno la situazione attuale. L’industria dei microchip sta vivendo una crescita costante e solo nel 2021 sono stati venduti oltre mille miliardi di microchip. Questo dato rappresenta in modo chiaro l’importanza strategica che i microchip hanno assunto nella realtà odierna.

Cina-USA: variazioni politiche e nuove strategie

Gli ultimi anni hanno visto una recrudescenza delle tensioni politiche tra Cina e Stati Uniti, portando a un’inversione di rotta rispetto a quanto si era sviluppato negli anni 2000. L’attuale tendenza sembra essere quella di ridefinire le direzioni prese nelle decadi precedenti. Gli Stati Uniti, in particolare dopo l’emergenza pandemica, hanno riconosciuto l’importanza di ridurre le catene di produzione dei microchip e hanno avviato progetti volti a costruire nuove fabbriche sia in Europa che negli Stati Uniti stessi.

Investimenti di Intel nel Vecchio Continente

Intel ha annunciato piani di investimento multimiliardari in Europa, con l’obiettivo di trasferire circa il venti percento della produzione nel continente europeo. Questa strategia, insieme alla costruzione di nuovi impianti negli Stati Uniti, fa parte di un’ampia visione volta a ridurre l’influenza della Cina nel settore.

TSMC: decidere la delocalizzazione in risposta alle complessità politiche

La scelta di TSMC di realizzare un impianto produttivo in Europa sembra essere una mossa dettata dalla volontà di individuare soluzioni al di fuori dei confini nazionali, considerate le sfide legate ai rapporti con la Cina. La Germania è stata selezionata come sede della prima fabbrica europea, con un investimento totale di circa dieci miliardi di euro, ripartiti tra lo Stato e l’azienda.

Nonostante le preoccupazioni interne riguardo a una possibile diminuzione dell’economia taiwanese dovuta a una tendenza alla delocalizzazione, il colosso ha garantito il mantenimento delle strutture più all’avanguardia all’interno del paese.

Storia del cloud

Negli ultimi anni, la tecnologia cloud è diventata una delle principali forze trainanti dell’innovazione tecnologica. Grazie alla sua capacità di fornire risorse informatiche su richiesta, senza doverle possedere fisicamente, il cloud computing ha rivoluzionato l’industria IT e ha aperto nuove opportunità per aziende e utenti finali.

Ma qual è la storia di questa tecnologia? Lo vediamo in questo articolo.

Arpanet

In origine far dialogare i computer non era affatto una cosa semplice, oggi la diamo per scontata. Agli albori dell’informatica, quando un calcolatore occupava un’intera stanza, condividere le risorse di un computer con un altro era molto complesso. La necessità, però, era pressante e il lavoro portò presto ai primi risultati.

ARPANET (Advanced Research Projects Agency Network) è stata la prima rete di computer a connessione in pacchetti, sviluppata dal Dipartimento della Difesa degli Stati Uniti nel 1969. L’obiettivo iniziale era quello di condividere le risorse informatiche tra diversi istituti di ricerca. Successivamente coinvolse università, centri di ricerca e altre organizzazioni. ARPANET rappresentò il precursore di Internet e, ad esempio, l’email inziò ad essere utilizzata proprio in quel periodo. La rete fu attiva fino al 1990, quando fu completamente sostituita da Internet, divenendo una delle più grandi svolte tecnologiche del XX secolo.

Ma il cloud è ancora lontano

Sebbene la Rete iniziasse a diventare una realtà concreta, non era ancora il momento di pensare ad un vero e proprio concetto di Cloud. 

Si iniziò a parlare nel corso degli anni Novanta di diversi concetti alla base del moderno Cloud computing. In particolare quello di “virtualizzazione“, ovvero la creazione di macchine virtuali che possono eseguire diversi sistemi operativi su un singolo server fisico, ha aperto la strada per la creazione di infrastrutture cloud.

Il termine “cloud computing” fu coniato solo nel 2006 da Eric Schmidt, all’epoca CEO di Google, durante una conferenza. Nel 2006 Amazon ha iniziato ad offrire i suoi “AWS”, ovvero Amazon Web Services, ovvero servizi di storage ma non solo. Nello stesso anno Google ha lanciato Google Docs, basato per il momente su fogli di calcolo e documenti di testo e, nel corso degli anni, ampliato. Da quel momento in poi, la tecnologia cloud ha iniziato a diffondersi rapidamente, grazie alla sua capacità di offrire una vasta gamma di servizi informatici (ad esempio storage, elaborazione, analisi dei dati, etc.) su scala globale.

Il presente del Cloud

Oggi, la tecnologia cloud è diventata un elemento essenziale dell’infrastruttura IT di molte aziende, grandi e piccole. Grazie alla possibilità di accedere a risorse informatiche su richiesta e di pagare solo per ciò che si utilizza, le imprese possono ridurre i costi e migliorare l’efficienza. Inoltre, la tecnologia cloud ha aperto la strada a nuove opportunità di business, come ad esempio la creazione di applicazioni per dispositivi mobili, lo sviluppo di soluzioni IoT e la fornitura di servizi di intelligenza artificiale.

Siamo entrati da qualche anno, quindi, nell’era dei software as a service, ovvero di software che si utilizzano prevalentemente online e che non richiedono potenza di calcolo particolare perché essa viene fornita dai server che ospitano il software stesso. Questo ha permesso di utilizzare programmi complessi senza dover fornire le proprie aziende di macchine potentissime, come avveniva un tempo.

Nell’ambito industriale la possibilità di usufruire di software gestionali potenti come Scaccomatto è a tutti gli effetti una svolta in grado di permettere anche a piccole e medie imprese di accedere ai vantaggi tecnologici senza costi insormontabili.

Intelligenza artificiale: presente e futuro

L’esplosione di ChatGPT ha avuto il merito di mettere in luce un settore in crescita che potrebbe rappresentare terreno fertile per molte aziende: quello dell’Intelligenza artificiale. In realtà, però, questo settore dell’informatica si sviluppa sin dagli albori, con fortune alterne. Scopriamo qualcosa in più in questo articolo.

Come far pensare una macchina?

Come dicevamo in apertura, anche all’inizio della storia dell’informatica ci si chiedeva se un giorno le macchine avrebbero potuto. Turing aveva iniziato a ragionare su possibilità che, all’epoca, erano molto remote.

Si trattava di un’epoca molto diversa che oggi fatichiamo ad immaginare. I computer occupavano intere stanze di grandi dimensioni e non avevano sistemi operativi simili a quelli odierni. Certo, una macchina poteva eseguire dei comandi ma non aveva “memoria” di ciò che aveva appena fatto e questo costituiva un problema molto grande per poter pensare all’addestramento di un’Intelligenza Artificiale.

Un problema complesso

Nel corso dei decenni successivi la corsa al progresso nel campo informatico pareva inarrestabile e un certo ottimismo si respirava un po’ ovunque. Alcuni ipotizzavano che durante gli anni Ottanta avremmo potuto vedere Intelligenze Artificiali paragonabili ad un uomo.

Alcuni progetti come quello di Newell e Simon riuscirono a dimostrare che un IA poteva prendere decisioni complesse in alcuni ambiti, in modo sovrapponibile a quello umano.

Il problema principale non era tanto quello di addestrarla a prendere decisioni tramite la logica ma molti studiavano per farle apprendere il linguaggio umano. Questo purtroppo richiedeva diversi fattori da tenere in considerazione e rendeva l’obiettivo non facilmente perseguibile.

Si chiudono i rubinetti

Se durante i decenni precedenti agli anni Ottanta i fondi erano aumentati di molto sotto l’influsso dell’ottimismo dilagante, le cose erano rapidamente cambiate quando i risultati eclatanti iniziarono a diminuire e così fece l’attenzione per quello specifico campo dell’informatica.

Nel 1997, nonostante tutto, un’IA batteva al gioco degli scacchi il campione russo Kasparov, e questo fu un evento in grado di destare di nuovo l’attenzione poiché si trattava di un grande esempio di capacità di prendere decisioni.

La potenza di calcolo scarseggia

Sviluppare l’IA però richiede potenze mai richieste prima e questo è stato uno dei freni maggiori nel corso della storia dell’informatica. Ovviamente la potenza è cresciuta costantemente nel corso degli anni e oggi, nonostante sia tutto molto diverso rispetto agli albori dell’informatica, le cose sono ancora complicate da richieste sempre più esose.

Colossi della tecnologia come IBM, che nel corso dei decenni si è sempre più interessata all’Intelligenza artificiale, già a partire dal 2021 ha cercato di rispondere all’esigenza di potenza di calcolo dedicata con un SoC apposito. Si tratta di un primo passo in grado di tracciare una strada ben precisa.

Non solo chat

La peculiarità di ChatGPT è di certo quella di dare l’illusione di poter dialogare con un’intelligenza artificiale e di essere di facile consultazione per tutti. Chiaramente si tratta di un primo passo in questa direzione che richiederà ancora altri anni per arrivare al suo pieno potenziale.

La guida autonoma e non solo rappresentano campi di applicazione per le IA di vario genere e potrebbero essere un valido aiuto per cambiare questi settori in meglio. Ad esempio Amazon ha implementato robot per portare a termine determinati compiti nei suoi magazzini, anche se si tratta di una prima fase di questo esperimento.

Questi sono solo alcuni esempi di applicazioni possibili, rimane un campo da esplorare e che potrebbe portare incredibili avanzamenti per la civiltà.

Si tratta solo di alcuni esempi, in futuro i campi potrebbero essere molteplici e ricchi di sorprese. Staremo a vedere.