Episodios

  • ¿Faltan episodios?

    Pulsa aquí para actualizar resultados

  • La pandemia ha accelerato l’adozione dell’AI da parte di tutte le industrie, anche quella sanitaria. Ma l’intelligenza artificiale è davvero efficace nel contrastare il Covid 19 e aiutare i pazienti? Vediamo quali sono i dubbi ma anche casi di successo delle nuove tecnologie sviluppate nel corso della pandemia.
    Come l’intelligenza artificiale ha aiutato nella lotta al Covid 19
    Nonostante non abbia da subito ottenuto i risultati sperati, l’Intelligenza Artificiale ha avuto un ruolo fondamentale nella lotta al Covid 19.
    Secondo Giovanni Vizzini, chief operating officer e direttore medico-scientifico della divisione italiana di Upmc, senza l’utilizzo dell’intelligenza artificiale e dei Big Data non sarebbe stato possibile riuscire a sviluppare un vaccino già adesso.
    Ma ci sono altre situazioni in cui l’utilizzo dell’intelligenza artificiale è stato utile nella lotta alla pandemia.
    Il caso BlueDot
    A fine 2019 la società BlueDot dell’infettivologo canadese Kamran Khan annunciava di aver identificato un nuovo tipo di polmonite a Whuan. Ha predetto inoltre che, in base ai dati raccolti sui viaggi programmati da e per la città, il virus si sarebbe diffuso velocemente in altre parti del mondo.
    Le tecnologie di BlueDot sono state successivamente utilizzate dal Canada per monitorare l’effettivo rispetto del distanziamento sociale da parte dei cittadini, attraverso la localizzazione in forma anonima dei telefoni cellulari.
    L’algoritmo DeepCOVID-XR
    Questo algoritmo è riuscito a individuare la presenza del Covid in 300 radiografie, scansionandole in 18 minuti e con un’accuratezza dell’82%. Al suo confronto cinque radiologi specializzati hanno impiegato dalle due alle tre ore, con un’accuratezza che va dal 76 all’81%.
    Lo studio Curial AI
    Curial AI è uno dei più grandi studi mai svolti fino a oggi e utilizza i dati clinici dei pazienti ricoverati in ospedale per diagnosticare i sintomi del Covid in tempi minori rispetto agli screening classici.
    I dubbi sull’efficacia dell’intelligenza artificiale contro il Covid 19
    Questi sono ovviamente casi di successo, però è doveroso fare alcune riflessioni riguardo l’utilizzo dell’intelligenza artificiale nella lotta al Covid 19. Entriamo nel merito della veridicità dei dati, della loro effettiva utilità e della tutela della privacy dei cittadini.
    Veridicità dei dati
    Per restituire risultati validi gli algoritmi hanno bisogno di elaborare grandi moli di dati, qualitativamente e quantitativamente utili.
    Per questo, dato che non conosciamo ancora a sufficienza il Covid, il timore è che i risultati ottenuti grazie all’AI possano essere falsati e non veritieri. Questo porterebbe ovviamente più danni che benefici.
    Lo studio Curial AI ad esempio non è stato ancora sperimentato in larga scala, ma solo su pazienti britannici.
    Sicurezza e tutela della privacy
    Il problema della tutela della privacy dei cittadini non è ancora stato risolto. I Paesi dove l’intelligenza artificiale ha avuto un ruolo centrale nella lotta alla diffusione del virus infatti sono gli stessi in cui i cittadini sono stati sottoposti a misure di sicurezza fortemente restrittive, come geolocalizzazione e controlli a domicilio.
    Intelligenza artificiale e Covid 19: un successo o un fallimento?
    Al momento non ci sono ancora dati certi per capire se l’Intelligenza artificiale è utile nella lotta al Covid.
    Quello che è certo è che questa tecnologia non potrà arrivare a sostituire figure centrali come gli operatori sanitari, ma potrà sicuramente velocizzare i tempi delle procedure in ambito medico e migliorarne i processi.
    È inoltre fondamentale che i modelli di AI messi in campo in ambito sanitario siano sviluppati insieme agli operatori sanitari. Questo per garantire una reale utilità ma soprattutto efficacia delle tecnologie che abbiamo a disposizione, che altrimenti si rivelerebbero uno spreco di risorse che in piena pandemia sono vitali per la lotta al Coronavirus.

  • I Fast Data rappresentano un’evoluzione dei Big Data, nella ricerca di una maggiore velocità di elaborazione e di analisi. Scopri perché le aziende hanno deciso di dirottare la loro attenzione sui fast data per incrementare il proprio business.

    Quante volte avrai sentito parlare dei big data, ma quello che forse non sai è che la vera rivoluzione non è più big ma fast. Oggi vogliamo parlarti dei fast data che rappresentano l’evoluzione dei big data fino ad ora conosciuti ed utilizzati nei vari processi produttivi delle aziende e non solo.

    Le necessità delle aziende, infatti, cambiano continuamente e rapidamente. Se pensiamo ai dati, poi, questa affermazione è ancora più evidente: nuovi strumenti e nuove metodologie di raccolta, analisi e utilizzo dei dati si susseguono a un ritmo impressionante. Ma andiamo con ordine e partiamo dal capire bene di cosa stiamo parlando.

    Cosa sono i big e i fast data?

    Il termine Big Data è entrato nel linguaggio comune verso la fine dello scorso decennio, quando le aziende hanno iniziato a investire nella raccolta ed elaborazione di grandi moli di dati per generare insight di valore per il proprio business. L’utilizzo di questi dati si è molto diffuso nelle grandi aziende, soprattutto negli ultimi anni, specialmente allo scopo di realizzare analisi predittive.

    I Fast Data, invece, sono dati raccolti e trasmessi in tempo reale tramite tecnologie IoT e successivamente analizzati in tempi brevissimi per prendere rapide decisioni di business o per attivare operazioni di vario tipo. I fast data non sostituiscono i big data, ma li affiancano, in quanto ad oggi la velocità di analisi dei dati è molto più importante.

    Perché si passa dai big data ai fast data?

    Uno dei limiti dei big data che hanno riscontrato le aziende nello sviluppare il proprio business è la lentezza e a tratti l’incapacità tecnologica di elaborare in tempi utili questa grande mole di dati. Nonostante gli sforzi, infatti, la maggior parte di queste informazioni, costituita da dati non strutturati, spesso rimane ancora inutilizzata per l’incapacità di elaborare, organizzare e analizzare i dati in tale stato.

    La conseguenza? A questo punto i tanti dati raccolti rischiano di diventare un costo più che un valore. Una mole infinita di dati molto costosi da conservare e difficile da analizzare e quindi utilizzare per gli scopi definiti inizialmente.

    È proprio in questo momento e per questo motivo che entrano in gioco i fast data. Le aziende a questo punto hanno iniziato a concentrarsi non tanto sulla quantità di dati, quanto sulla loro qualità e velocità.

    In conclusione possiamo affermare con sicurezza che i fast data non andranno a sostituire i “colleghi” big data, perché ne sono semplicemente una fisiologica quanto importante evoluzione. I Fast Data, infatti, rappresentano un’evoluzione dei Big Data, nella ricerca di una maggiore velocità di elaborazione e di analisi.

    Permettono, infatti, alle aziende di raccogliere subset di dati da diverse sorgenti e di elaborarli contestualmente, ottenendo così informazioni aggregate e sempre disponibili in tempo reale.

  • L’istruzione sta attraversando un periodo di massiccia transizione e la pandemia ha riacceso i riflettori sull’e-learning e sull’importanza strategica della Smart Education, ovvero l’istruzione digitale remota tra insegnanti, genitori e studenti. Scopriamo perché l’Open Source si rivela una risorsa indispensabile e inevitabile.

    In un mondo in continua evoluzione anche la formazione scolastica deve viaggiare di pari passo con le innovazioni e i trend più recenti. E in un mondo in cui siamo bombardati da stimoli di ogni tipo e in cui mantenere alta l’attenzione è sempre più difficile, è ormai impensabile fermarci e limitarci ai tradizionali metodi di insegnamento basati su lezioni frontali.

    La didattica della scuola italiana, infatti, si basa ancora sulla convinzione che il metodo più efficace perché bambini e ragazzi apprendano un argomento consiste nel leggere loro un testo, a cui segue la spiegazione dell’insegnante. La lezione frontale, però, non implica alcuna competenza pedagogica: si spiega, si richiede agli studenti lo studio individuale, attraverso la ripetizione dei contenuti spiegati, e, infine, si interroga e si valuta l’alunno.

    Le restrizioni a cui siamo sottoposti in questo particolare momento storico, hanno reso necessario confrontarsi con il mondo dell’e-learning e della Smart Education basata sui principi di condivisione, trasparenza e collaborazione dell’Open Source, per rispondere alle esigenze di continuità didattica, di scuole e università. Non poteva essere altrimenti.

    L’interesse per il software Open Source nella scuola italiana è, infatti e per fortuna, un fenomeno in continua crescita. L’utilizzo effettivo non si limita più a casi esemplari, concentrati per lo più in istituti tecnici o professionali dove l’informatica è materia di insegnamento, ma si sta diffondendo a più livelli d’istruzione.

    Ovviamente esistono diversi strumenti Open Source disponibili per insegnanti, studenti e genitori anche fuori dal mondo scolastico; libri e giochi in grado di ispirare e motivare adulti e bambini a scoprire il mondo dell’Open Source, ma le potenzialità per la didattica sono davvero infinite.

    Perché l’Open Source è inevitabile

    Negli ultimi anni sempre più imprenditori e venture capitalist hanno mostrato interesse per il mercato dell’apprendimento digitale perché ne hanno percepito il valore potenziale, e a quanto pare molti segmenti di mercato raggruppati sotto l’ombrello della “tecnologia educativa” iniziano a consolidarsi.

    Abbiamo appena iniziato a vedere gli esordi di questa trasformazione ma è ormai ufficialmente avviata, complice l’accelerazione data dalle esigenze del momento ed è impossibile far finta di nulla e soprattutto tornare indietro.

    Perché l’open source è importante per l’istruzione

    Che tu ci creda o meno la tecnologia Open Source vincerà nell’ecosistema dell’apprendimento digitale. La Smart Education, infatti è un modello di didattica più vicino alle caratteristiche delle nuove generazioni native digitali. In un mondo stravolto dalle tecnologie, i metodi di apprendimento, la scuola e le università non potevano restarne al di fuori.

    Solo sviluppando percorsi didattici innovativi, si possono formare studenti in grado di adattarsi a un mondo e un mercato del lavoro in continua evoluzione.

    Il modello di Smart Education basandosi sull’apertura al mondo del lavoro e delle imprese, sul forte orientamento all’uso dei social media e delle nuove tecnologie e sull’uso dei nuovi media all’interno della didattica è quello che più di tutti si presta ad essere introdotto e utilizzato nella didattica ai più vari livelli.

  • Il mondo è fatto di dati. Dati strutturati, facilmente leggibili ed elaborabili, anche dati semi e non strutturati, difficilmente interpretabili e che necessitano di algoritmi di machine learning per essere analizzati. Ecco perché il Cloud Computing è una risorsa sempre più preziosa per le aziende

    Big Data è il termine comunemente utilizzato per indicare un’ingente mole di materiale informativo. Materiale che racchiude al suo interno milioni di dati e che, oggi, rappresenta un patrimonio prezioso per le aziende di ogni ambito. I dati, infatti, possono fornire suggerimenti preziosi al business aziendale, sia singolarmente sia una volta aggregati e trasformati cioè in trend in grado di guidare le decisioni strategiche.

    In sintesi, i Big Data sono uno tra i più grandi vantaggi competitivi in possesso di un’impresa, cui spetta il compito di procurarsi gli strumenti necessari alla loro analisi. Tra questi, troviamo anche la tecnologia del Cloud Computing.

    Perché le aziende scelgono il Cloud Computing

    I primi a riconoscere l’importanza dei Big Data sono stati gli operatori del marketing, che hanno riconosciuto nei dati una preziosa fonte di informazione per conoscere gli aspetti sociodemografici e comportamentali dei propri clienti, intercettandone i bisogni e offrendo così un’offerta mirata e personalizzata. Col tempo, però, anche altri ambiti hanno riconosciuto il valore dei data: dall’amministrazione alla produzione, fino alla digital governance, l’intera azienda è oggi interessata all’utilizzo dei Big Data.

    Per proteggere i preziosi dati da abusi e furti, come ad esempio i data breach, esistono piattaforme cloud che forniscono analisi dati e servizi strutturati per le diverse funzioni aziendali, dal marketing all’amministrazione. I vantaggi offerti dal cloud sono la possibilità di proteggere i data, mantenendo la loro accessibilità da remoto senza tuttavia venir meno alle vigenti normative in materia di privacy.

    Big Data e Cloud Computing nelle aziende italiane

    Anche le aziende italiane, nel loro percorso di digital transformation, hanno iniziato a porre sempre maggiore attenzione al Cloud Computing e ai Big Data, optando spesso per l’utilizzo di stack tecnologici in grado di trattare i dati attraverso l’implementazione di sistemi in cloud.

    Una scelta le cui conseguenze sono esclusivamente positive. L’uso dei Big Data, infatti, rappresenta un grande vantaggio competitivo in termini di scelte strategiche, mentre il cloud consente di aumentare la cybersecurity efficientando allo stesso tempo le prestazioni di velocità e accessibilità del database aziendale. Senza considerare, infine, l’ottimizzazione economica degli investimenti garantita dalla forte scalabilità del Cloud Computing, anche su moli di dati progressive.

  • L’analisi dei competitor, da effettuare attraverso la Competitive Intelligence, è un’attività articolata da eseguire fissando con attenzione e logica alcune linee guida da seguire per poterla svolgere nel modo corretto. Solo un’attenta analisi dei concorrenti permette sia di emularne i punti di forza, sia di andare a soddisfare le esigenze del mercato che ancora nessuno si è preoccupato di colmare

    Il primo settore in assoluto a comprendere l’importanza di possedere informazioni attendibili e di qualità è stato quello dell’intelligence, che svolge un ruolo fondamentale grazie al ricorso a professionalità provenienti da ambienti diversi che agiscono nel rispetto di peculiari procedure volte a salvaguardare la riservatezza degli operatori e delle loro attività.

    Si parla di Business Intelligence (BI) in riferimento a un insieme di processi aziendali per raccogliere dati e analizzare informazioni strategiche, oppure alla tecnologia utilizzata per realizzare questi processi o ancora alle informazioni ottenute come risultato di tali processi. La Business Intelligence combina business analytics, data mining, visualizzazione dei dati, strumenti e infrastrutture per i dati, nonché le best practice per permettere alle organizzazioni di prendere più decisioni basate sui dati.

    In principio era la Business Intelligence

    In economia aziendale, il termine “intelligenza economica” indica l’insieme di attività sistematiche di back office finalizzate a fornire al management aziendale informazioni utili o strategiche (azioni di ricerca, trattamento, diffusione e protezione dell’informazione) sull’ambiente esterno all’impresa (mercato, clienti, concorrenti, tendenze, innovazioni, norme, leggi) a supporto dei processi decisionali della dirigenza. Usare la Business Intelligence significa acquisire la visione completa dei dati della propria organizzazione e usarli per stimolare il cambiamento, eliminare le inefficienze e attuare un rapido adattamento ai cambiamenti di mercato e forniture.

    Il principio fondamentale della disciplina, la cui missione è “sapere per anticipare”, è stato enunciato da Michael E. Porter della Harvard Business School: “dare l’informazione giusta alla persona giusta, nel momento giusto per prendere la giusta decisione”. Nata contemporaneamente alla globalizzazione dei mercati e alla necessità di adottare un processo di anticipazione dei cambiamenti dei mercati e dell’ambiente economico, la Business Intelligence supporta il processo strategico usando lo strumento dell’informazione per ottimizzare le performance economica e/o tecnologica.

    L’importanza di studiare i competitor

    Nel 2020 sono molto aumentate le richieste di servizi di Competitive Intelligence quali: attività di raccolta, monitoraggio e analisi di informazioni esterne a un’azienda. Si tratta di peculiari attività – o, per meglio dire, investigazioni – finalizzate a supportare i processi decisionali aziendali e generalmente con software di Business Intelligence.

    Le imprese italiane investono sempre di più nello studio dei concorrenti, ricercando anche informazioni sulla clientela, sulle nuove tecnologie e sulle normative del settore. Gli esperti di Central Marketing Intelligence, agenzia che si occupa da anni di Competitive Intelligence e ricerche di mercato tramite Big Data online, assicurano che da un’analisi della concorrenza professionale un’azienda può ricavare grandi vantaggi per il proprio business.

    Studiare la concorrenza con un’indagine di mercato

    L’analisi dei competitor, o benchmarking, si rende necessaria per le aziende interessate a posizionarsi strategicamente nel settore di appartenenza. Analizzare i competitor significa studiare la concorrenza per capire quali possono essere i punti di forza e di debolezza del proprio prodotto sul mercato.

    La Competitive Intelligence può rispondere a domande essenziali:

    Quali servizi offrono i competitor?

    Qual è il loro target ideale?

    Come comunicano e attraverso quali ...

  • Con l’affermazione della fabbrica intelligente si fa sempre più importante comprendere la posizione del futuro Smart Worker. Quali saranno le conseguenze di questa rivoluzione?

    Del rapporto tra uomo e macchina la letteratura ne ha fatto un caposaldo della prima metà del ‘900, quando intellettuali e autori diedero spinta al genere “industriale”. Colpa della rivoluzione industriale del secolo precedente, che segnò il prepotente ingresso nella vita operaia della macchina, mostruoso e remunerativo prodotto della scienza e della tecnica. Alienazione e sostituzione i temi principali, preoccupazione per la propria dimensione lavorativa la conseguenza più esplicita. Ebbene oggi, quasi cento anni dopo, l’argomento torna alla ribalta con la veloce affermazione della Smart Factory. Come saranno quindi i nuovi Smart Workers? E, soprattutto, esisteranno?

    Cos’è la Smart Factory?

    Descrivere in poche righe la Smart Factory è opera complicata, forse perché una definizione esaustiva e circoscritta oggi ancora non esiste. Ciò che è sicuro è la sua centralità nel futuro dell’impresa. Basata sul concetto di integrazione digitale la fabbrica intelligente prevede la coabitazione e collaborazione di elementi tecnologici, come robot e cobot, con le risorse umane. Si tratta quindi dell’ennesimo upgrade nel rapporto tra uomo e macchina, dove la macchina non si limita più ad essere un ripetitivo esecutore di mansioni, ma dà vita a un’interazione cooperativa con l’uomo, virando verso una sempre più evidente antropizzazione.

    Rapporto tra uomo e robot: niente allarmismi

    Si palesa quindi necessario ricominciare ad indagare in profondità il rapporto tra uomo e macchina, o meglio tra uomo e robot. Come sarà il rapporto tra le due forze in campo? La crescente antropizzazione dei robot accompagnerà ad una lenta scomparsa dell’uomo sul campo di lavoro? Le paure dei lavoratori delle Smart Factory sono senz’altro plausibili, anche alla luce di importanti studi di settore, come quello di McKinsey che prevede la sostituzione con robot di circa 800 mila posti di lavoro entro il 2030.

    Scenario agghiacciante? Non è proprio così. La grande novità apportata dalla Smart Factory è quella di generare macchine automatizzate, sempre più in grado di eseguire lavori di alta precisione. Merito dell’Intelligenza Artificiale e di altri prodigi della tecnologia. La naturale conseguenza è l’eliminazione di quei lavori che per l’uomo appaiono usuranti e ripetitivi. Ma la risorsa umana non deve abbandonare il posto di lavoro, bensì riconvertire il proprio operato verso attività collaterali, più gratificanti e meno faticose. È questo il centro nevralgico dell’idea della Smart Factory: robot sempre più umanizzati che collaborano a stretto contatto con l’uomo, eseguendo ordini con precisione impeccabile e offrendo all’uomo una nuova dimensione lavorativa.

    Veloci verso l’Umanesimo Tecnologico

    Questa rinnovata collaborazione tra uomo e macchina favorisce l’ottimizzazione della produzione industriale e velocizza i processi, anche in funzione di una sempre maggiore customizzazione del prodotto. Alla base di tale rivoluzione c’è la capacità dei robot di muoversi in ambienti umani e pensare come un umano, cooperando alla pari con il lavoratore. È così ormai tracciata la strada verso un vero e proprio Umanesimo Tecnologico, con tutte le valutazioni etiche e sociologiche che ne conseguiranno.

    Una nuova professionalizzazione

    Nell’epoca delle Smart Factory lo Smart Worker non dovrà quindi abbandonare il campo di battaglia, ma diventerà un ausiliario del lavoro dei robot. L’uomo sarà la mente e il robot il braccio, nessuno è destinato ad escludere l’altro. Ciò significa che la risorsa umana dovrà però apprendere nuove nozioni, ampliare le proprie conoscenze e aumentare la propria professionalizzazione. Questa è la vera sfida che attende il lavoratore delle Smart Factory.

  • In ambito Industria 4.0 l’adozione di soluzioni IoT permette di ottimizzare le attività legate al controllo qualità. Workflow, data management, software in grado di monitorare in tempo reale tutti i flussi produttivi. Vediamo nel dettaglio cosa si intende per controllo qualità e in che modo esso viene affrontato grazie al paradigma IoT

    “Parte della gestione della qualità mirata a soddisfare i requisiti della qualità”. Così viene ufficialmente definito dalla ISO 9000:2000 quello che nel gergo comune chiamiamo sbrigativamente ‘controllo qualità’. Stiamo quindi parlando di un’attività gestionale di verifica della conformità del processo e del prodotto/servizio ai determinati requisiti che ne costituiscono lo standard qualitativo. Quest’ultimo è l’insieme delle proprietà e delle caratteristiche fondamentali che riguardano sia il processo che il prodotto/servizio e che li rendono rispondenti alle aspettative dell’utilizzatore.

    Va da sé che un controllo qualità rigoroso ed efficiente è direttamente proporzionale alla soddisfazione dell’utente. Più nello specifico, un sistema di controllo qualità comprende: la raccolta dati in tempo reale, la verifica statistica di processo, la gestione degli strumenti di misura, i controlli in accettazione da fornitori e la gestione dei lotti di materiale, i controlli post-lavorazioni, il collaudo finale e la gestione delle partite di collaudo. A ciò si aggiunga poi la valutazione dei fornitori, la rilevazione dei parametri di qualità con collegamenti diretti alle macchine per la programmazione dei controlli in funzione dei pezzi prodotti, la gestione della tracciabilità.

    Vecchie esigenze, nuove soluzioni

    Nell’ottica industriale tradizionale gli aspetti sottoposti a controllo qualità sono solitamente suddivisi in tre livelli, a seconda del danno causato al processo/prodotto in caso di non conformità:

    Aspetti ‘critici’ nel caso la funzionalità venga compromessa in modo pesante;

    ‘importanti’ qualora venga intaccata la funzionalità ottimale;

    ‘secondari’ se tali aspetti non pregiudicano in alcun modo la funzionalità.

    Nella più moderna e tecnologia visione industriale della Smart Factory i livelli di rischio...rimangono gli stessi! A cambiare è l’adozione di soluzioni IIOT capaci di ottimizzare le operazioni del controllo qualità grazie a un monitoraggio in tempo reale dei flussi produttivi: specifici software elaborano i dati forniti dai sensori posti nei punti strategici della linea di produzione, rilevando eventuali non conformità.

    Il controllo qualità secondo l’Industria 4.0

    Un esempio pratico di automatizzazione nel controllo qualità in fase di collaudo è l’uso di software vocali durante le operazioni di verifica. Il controllo qualità ‘alla vecchia maniera’ viene effettuato dall’operatore manualmente, trascrivendo le annotazioni su moduli cartacei. Grazie al software vocale, invece, i setting del macchinario possono essere confermati oppure modificati a voce. Come? Attraverso postazioni dotate di computer e cuffie cordless con cui comunicare in tempo reale e visualizzare i risultati delle modifiche effettuate.

    Ancora, è possibile impiegare sistemi di ‘computer vision’, ovvero soluzioni di estrapolazione automatica di informazioni dall’elaborazione di immagini digitali con l’utilizzo di sensori di prossimità per controlli e monitoraggi in condizioni gravose.

    Insomma, l’adozione di soluzioni IIOT permette di ridurre i costi legati alle produzioni di articoli che risultano non conformi, agli sprechi e alle rilavorazioni. Il tutto apportando evidenti benefici in quanto ad aumento dei volumi prodotti e migliorata tracciabilità e sostenibilità.

    Una figura chiave: il Quality Control Manager

    Un addetto al controllo qualità, o Quality Control Manager, lavora per assicurare la conformità allo standard qualitativo del processo/servizio. Ha prima di tutto l’onere di capire quali sono i bisogni dell’utilizzatore, per poi impegnarsi per far sì ...

  • Un recente sondaggio di Red Hat evidenzia la crescita dell’uso di soluzioni “a codice aperto” nelle aziende, specie in ambito sicurezza e gestione del cloud. Tra le motivazioni, il risparmio non è la più determinante. Quindi, un grande passo avanti per soluzioni sempre più avanzate per una innovazione alla portata di tutti.

    L’open source attira sempre più aziende, perché conviene ma anche e soprattutto per tante altre buone ragioni. Il fattore costo non è risultato la motivazione principale per le aziende che scelgono di adottare soluzioni basate su software “aperto”, pur restando indubbiamente un solido incentivo. Un sondaggio sponsorizzato da Red Hat e condotto da Illuminis su 905 professionisti (di aziende suddivise tra Stati Uniti, America Latina, Regno Unito e regione Asia Pacifico) ha evidenziato che per il 33% di essi la principale ragione per cui l’open source è stato scelto è per la maggiore qualità del software. Tra le motivazioni citate seguono i minori costi totali di proprietà (30%), la superiore sicurezza garantita da questi programmi (29%), la predisposizione a funzionare pure nel cloud (28%) e il più rapido accesso alle più recenti innovazioni tecnologiche (27%).

    Perché scegliere un software Open Source

    I buoni motivi per scegliere l’open source sono, dunque, diversi e vanno ben al di là della possibilità di risparmio, che invece risultava molto più rilevante nello stesso sondaggio realizzato l’anno scorso. La percezione del fenomeno da parte delle aziende, dunque, sta cambiando. A tal proposito, va ricordato che i 950 intervistati sono stati scelti tra coloro che in azienda impiegano Linux anche solo in piccola misura (1% del software totale), tutti però ignari di chi fosse lo sponsor dell’indagine. “In questo modo abbiamo raccolto una visione più onesta e ampia del vero stato dell’open source aziendale”, sottolineano a Red Hat.

    Un altro punto di interesse aziendale riguarda il fatto che l’open source abbia ormai conquistato anche aree un tempo tipicamente associate ad applicazioni proprietarie: gli ambiti in cui è più usato sono, attualmente, la sicurezza informatica (per il 52% delle aziende interpellate), gli strumenti di gestione del cloud (51%) e i database (49%).

    Più in generale, il fenomeno è in ascesa. Nel sondaggio realizzato l’anno scorso una quota già molto alta di intervistati, 89%, aveva dichiarato che l’open source fosse rilevante per la strategia software della propria azienda, mentre quest’anno la percentuale è salita addirittura al 95 per cento. In questo ambito il sondaggio ha fatto una distinzione: le soluzioni di enterprise open source prevalgono su quelle community-based, cioè create da community di sviluppatori e contributori ma non appartenenti da alcun vendor. Entrambi gli approcci, in ogni caso, sembrano in crescita nei prossimi due anni e lo faranno a discapito del software proprietario. L’83% degli intervistati ha dichiarato che l’enterprise open source sia stato determinante per consentire all’azienda di sfruttare le architetture del cloud.

    L’affinità tra open source e mondo aziendale è sempre più forte e duraturo, non soltanto attraverso sondaggi come questo, ma anche attraverso le scelte strategiche dei vendor. Ha fatto scalpore, l’anno scorso, la maxi acquisizione di Red Hat da parte di Ibm, mentre nel giugno del 2018 la piattaforma GitHub è stata inglobata da Microsoft. Non a caso, allo stesso tempo, alcuni colossi del software proprietario, come Google e Adobe, sono ad oggi tra i principali contributori di progetti basati su codice aperto. Secondo i calcoli del sito Statista, il giro d’affari mondiale dei servizi open source aveva raggiunto nel 2019 i 17,4 miliardi di dollari, valore che dovrebbe continuare a salire fino a 21,6 miliardi di dollari quest’anno, per arrivare a sfiorare la quota di 33 miliardi di dollari nel 2022.

  • L’iper-connessione alla base del paradigma IoT è una visione sicuramente ambiziosa del futuro. Se da un lato l’aspirazione di connettere qualsiasi oggetto in qualsiasi luogo e in ogni momento rappresenta un’idea affascinante, dall’altro non si possono ignorare i rischi legati al concetto di ‘smart’. Vediamo cosa implica essere sempre connessi e quali minacce dobbiamo affrontare.

    L’obiettivo dell’IoT: iper-connettere gli oggetti

    Più un sistema cresce più diventa complesso. Un concetto fondamentale che si applica in modo esemplare all’ambito IoT e alla sua spinta all’iper-connessione. Un percorso nel pieno del suo sviluppo che ha grandi aspettative, ma altrettanti problemi da superare e rischi da calcolare. Problemi che, per l’appunto, sono destinati a crescere in funzione dell’aumento della complessità del sistema.

    Obiettivo dell’IoT è di iper-connettere il maggior numero di oggetti ‘smart’ accedendo a quantità di dati immani, che devono essere disponibili in qualsiasi momento, così come i servizi e le applicazioni devono essere raggiungibili quando necessario. Automobili, ma anche oggetti di uso più personale come lo spazzolino da denti sono ormai hardware e software che nel futuro dell’Internet of Things rappresentano sicuramente un’ottima opportunità per il mercato.

    IoT e rischi: più livelli di sicurezza

    Il rovescio della medaglia, però, è il discorso della sicurezza e dei rischi di attacchi esterni che possono comprometterne l’integrità. E la conseguente fruibilità da parte dell’utente finale. Serve una visione comune e strutturata del ‘sistema IoT’ ed è di estrema importanza che ‘smart’ diventi al più presto sinonimo di ‘sicuro’, anche grazie a un atteggiamento collaborativo tra i produttori in merito alla definizione di standard e linee guida affidabili.

    I requisiti di sicurezza non sono identici per tutti gli ambiti in cui l’IoT si muove. Sarebbe come dire che una camicia può ripararci dal freddo anche nei mesi invernali. Ogni stagione richiede un abbigliamento specifico, così come l’IoT funziona su diversi livelli, ognuno con specifici requisiti di sicurezza.

    Cyber security e perception layer

    Tutto è connesso con tutto e se non abbiamo a disposizione cavi estremamente lunghi, dobbiamo tenere in considerazione la modalità di collegamento e le caratteristiche del segnale wireless al quale affidiamo l’interconnessione. Ed ecco il primo evidente punto debole. Possiamo essere disturbati da altre onde, ma anche intercettati. Se poi il dispositivo è posizionato all’esterno dell’edificio diventa inevitabilmente bersaglio di manomissioni e intercettazioni.

    La responsabilità della sicurezza di chi è? Del produttore che deve farsi carico di progettare device protetti contro le violazioni, ma anche dell’utilizzatore che deve sapere di dover proteggere in modo adeguato la telecamera o il sensore di movimento installato all’esterno di casa. In questo caso, saranno da adottare contromisure come l’implementazione di robusti meccanismi di crittografia, autenticazione e controllo accessi (nei limiti delle capacità elaborative dei device che sono molto ridotte).

    Network layer

    Passando al layer di rete vediamo che l’IoT è vulnerabile agli stessi attacchi che riscontriamo su Internet: in particolare, le comunicazioni tra nodi possono essere intercettate a causa della debolezza dei meccanismi che sovrintendono allo scambio dei dati.

    La natura estremamente eterogenea dei dispositivi connessi, inoltre, implica un problema di compatibilità. Frigoriferi, termostati, telecamere, ma anche automobili e totem informativi possono avere difficoltà nello stabilire canali sicuri di comunicazione. E se questi oggetti, attaccati esternamente, non “capiscono” lo stato della rete e la relativa sicurezza non sono in grado di “percepire” l’anomalia di una situazione e quindi autoproteggersi.

    Application layer

    Anche in questo caso la complessità ed eterogeneità della natura dei vari elementi in gioco ...

  • Quanto incidono gli investimenti in Ict sulla produttività delle aziende, piccole o grandi che siano? In altre parole, come si può misurare la digitalizzazione delle imprese?

    Un nuovo dataset sperimentale dell’Istat ha provato a rispondere a questa domanda grazie all’integrazione di numerose fonti statistiche. Ha provato a indagare in modo dettagliato sugli effetti dell’investimento in tecnologie informatiche. Quali sono gli effetti reali dell’Ict sulla produttività aziendale?

    Quali sono gli indicatori presi in considerazione

    L’indagine si basa su quattro differenti indicatori riferiti a:

    12 diverse attività digitali (Digital Intensity Index) indicate dall’agenzia europea di statistica;

    livello di connessione a Internet e di utilizzo dei PC da parte delle aziende;

    numero di addetti collegati online;

    efficacia della vendita online tramite e-commerce.

    Come si può misurare la digitalizzazione delle imprese: l’Istat indaga con un dataset enorme

    L’indagine sperimentale dell’Istat si basa su un dataset contenente dati relativi a oltre 4,4 milioni di imprese italiane con circa 16 milioni di addetti complessivi.

    Le informazioni comprendono caratteristiche essenziali delle aziende: settore, dimensione, luogo di attività e voci economiche principali (fatturato, valore aggiunto, costo del personale, margine operativo lordo). A questo dataset è stata aggiunta l’indagine annuale su aziende con almeno 10 addetti chiamata “Survey on ICT usage and e-Commerce in Enterprises”.

    I risultati dell’indagine Istat rivelano un primo aspetto: il rapporto tra utilizzo dell’Ict ed esportazione è positivo. La quota di imprese sale con l’aumento della digitalizzazione o con il supporto dell’e-commerce. L’eccezione è rappresentata dalle aziende tecnologiche (ad esempio, produttrici di software) che non esportano troppo.

    In determinati settori, il rapporto positivo tra investimenti in Ict e quota di fatturato esportata raggiunge risultati migliori: è il caso del settore manifatturiero. In altri settori, i risultati sono minori, ad esempio nei servizi.

    La connettività aumenta la produttività del lavoro

    Che si tratti di piccole, medie o grandi imprese, più la connettività in rete degli addetti aumenta, maggiori saranno i benefici, specie attraverso il sito web.

    Un maggior livello di connettività aumenta la produttività del lavoro (in termini di valore aggiunto) per ogni addetto, specie nel settore manifatturiero, dell’energia, commercio, ristorazione e alloggio, agenzie di viaggio, servizi di noleggio.

    I progressi produttivi legati alla digitalizzazione in questi particolari settori sono favoriti dalla presenza di un sito web. La crescita si accentua, anzi è l’unica nel settore commerciale, per le aziende che vendono online tramite canali indiretti. Nei servizi di comunicazione e informazione, l’incremento della produttività è legato a un canale di vendita online diretto.

    Dall’indagine Istat emerge un risultato curioso: il grande miglioramento avviene soprattutto passando da un utilizzo basso o nullo dell’Ict a uno più intenso, dopodiché, se si aumenta l’intensità, il rapporto tra Ict e produttività si fa meno evidente, talvolta diventa addirittura negativa.

    Misurare la digitalizzazione delle imprese: la dimensione incide?

    I risultati migliori si registrano nelle imprese già produttive, maggiormente capaci di sfruttare appieno i vantaggi della tecnologia. Ancor più se si tratta di grandi imprese.

    La dimensione delle imprese conta. Le grandi imprese presentano maggiori livelli di adozione di Ict, ne hanno bisogno e si dimostrano più pronte a cogliere i frutti della tecnologia rispetto alle piccole o medie imprese.

    Fatto sta che i valori di produttività risultano massimi nelle imprese con 250 addetti e oltre, si concentrano nelle aziende all’interno delle quali la connettività e l’utilizzo del PC interessa almeno il 75% degli addetti. Al contrario, quando gli strumenti ICT vengono utilizzat...

  • Maggiore preparazione al mondo del lavoro, corsi gratuiti, accesso rapido ad articoli e pubblicazioni, archivio illimitato di dati disponibili. Ecco come molte università hanno avviato nuove iniziative per attirare studenti grazie a sistemi di apprendimento Open Source.

    L’Open Source nelle Università rappresenta un’opportunità che non solo svincola dall’uso di software proprietario, costoso e spesso inaffidabile, ma inoltre consente di alimentare preziosi percorsi di conoscenza comune dove studenti e insegnanti si trovano, spesso, su un piano strettamente collaborativo.

    La produzione e l’uso di software libero ed Open Source costituiscono una grande opportunità per le attività di didattica e di ricerca svolte dalle Università Italiane. Questo software consente infatti di diffondere in modo più diretto la tecnologia e l’informazione, offrendo uno strumento ad alta efficienza caratterizzato da una forte valenza didattica.

    Il software libero e Open Source, quindi, si concilia bene con le esigenze delle Università, favorendo lo sviluppo della conoscenza e proponendo modelli basati sul lavoro cooperativo.

    Ma quali sono le leve principali che attirano gli studenti a preferire percorsi universitari più orientati all’apprendimento libero e collaborativo grazie a sistemi Open Source?

    Come attrarre gli studenti con l’Open Source

    Abbiamo appurato che il presente e soprattutto il futuro dell’apprendimento universitario è free e open. L’obiettivo è quello di contribuire a creare un ricco mix di apprendimento che dovrebbe includere esperienza lavorativa, formazione delle competenze, approfondimento di materie e corsi gratuiti, tenuti online da professori e leader di pensiero, in modo da costruire una comunità con altri studenti e soprattutto preparare al meglio gli studenti al mondo sempre più competitivo del lavoro.

    Ecco i vantaggi che le Università, attraverso sistemi di apprendimento Open Source, cercano di offrire ai propri studenti per renderli partecipi e protagonisti del fenomeno della formazione didattica libera, condivisa e personalizzata.

    La possibilità di lavorare con i dati illimitati e gratuiti

    Uno dei principali valori alla base dell’Open Source è quello della collaborazione aperta e condivisa: le community open source offrono supporto, risorse e nuovi spunti che, esulando gli interessi di un singolo gruppo o azienda, sono sfruttabili da chiunque. Le Università lo sanno ed è per questo che offrono ai propri studenti un accesso libero a dati e informazioni utili per i loro studi e approfondimenti.

    La possibilità di partecipare a corsi di approfondimento gratuiti

    Gli studenti, hanno nuove opportunità di seguire corsi, o parti di corsi, da qualsiasi istituzione nel mondo e di combinarli nel modo che desiderano con altre forme di apprendimento, per sviluppare il proprio “mixtape” di apprendimento personale, nella forma di un portafoglio di apprendimento online.

    La possibilità di prepararsi meglio al mondo del lavoro

    In un’era digitale che continua a mutare anche nella domanda di lavoro le competenze richieste non sono più soltanto quelle tecniche. Per quanto riguarda le assunzioni, le aziende pongono sempre più attenzione a quelle che vengono definite soft skills, che fanno davvero la differenza al momento della selezione dei candidati a parità di hard skills, vale a dire di competenze pratiche.

    Un apprendimento libero, completo, condiviso e personalizzato permette in ambito universitario permettere di affinare e acquisire le competenze necessarie ad un nuovo concetto di lavoro e soddisfare in maniera più completa le richieste delle aziende e del mercato attuale.

  • I Data sono stati definiti l’oro nero del nuovo millennio. Preziosa fonte di informazioni per aziende di tutti i settori, hanno ormai invaso la quotidianità. Dall’intrattenimento al credito, dallo shopping alla politica, non c’è ambito che non sia stato vittima dell’invasione dei Big Data

    Una silenziosa rivoluzione è in atto: è la rivoluzione dei dati, o meglio dei Big Data. Il successo di un’azienda, oggi, non può prescindere dalla capacità di analizzare le informazioni e metterle in relazione così da trasformarle in suggerimenti su cui basare la propria strategia. Che si tratti di campagne elettorali, intrattenimento, formazione, sanità o marketing, la questione non cambia. I dati sono la chiave per il raggiungimento dei propri obiettivi.

    Un trend sempre più in crescita

    Tutti siamo fonte di dati, ciascuno oggetto di profilatura ogni qualvolta si entri in internet. E il trend è destinato a una rapida crescita. Se, infatti, il numero di dati prodotti nel 2018 fu pari a quello prodotto in tutta la storia precedente; tra qualche anno, con l’avvento del 5G, basteranno 12 ore per produrre una quantità di dati pari a quella prodotta in tutta la storia dell’umanità.

    “Negli anni 20 del ventunesimo secolo i dati sono il fondamento dell’economia e della società, imprescindibili come è imprescindibile l’acqua per la vita. Le similitudini non finiscono qui, perché i dati per poter essere utilizzati devono essere puliti e accessibili, raccolti da fonti diverse e incanalati in una struttura in grado di gestirli. I dati, di per sé, non sono infatti sufficienti: sono le analytics che trasformano i dati in intelligenza attiva”, queste le parole di Stefano Nestani, regional director di Qlik Italia, azienda attiva nel campo dell’analytics e autore di un recente report sull’argomento.

    I Big Data e l’intrattenimento

    L’entertainment odierno si compone di numerose piattaforme on-demand, accomunate da una quantità infinita di titoli e, soprattutto, dalla proposta di un’offerta studiata su misura per ogni singolo utente.

    I titoli che compaiono sulla home sono infatti scelti dall’algoritmo sulla base degli interessi precedenti del visitatore e della popolarità momentanea. L’algoritmo di Netflix è senz’altro quello più raffinato, capace di modificare persino la locandina per renderla più adatta ai gusti dei singoli.

    Anche le banche usano i Data

    Per le banche è ormai prassi consolidata quella di utilizzare i Big Data per svolgere analisi e approfondimenti sull’affidabilità finanziaria dei propri clienti. Le scelte delle banche in materia di credito, oggi, tengono conto anche delle informazioni registrare dalle app di salute, dei post sui social che testimoniano un certo stile di vita, dei flussi di pagamento, nonché della reputazione digitale dei richiedenti credito.

    Shopping di Big Data

    Sempre più persone hanno fatto del web il proprio centro commerciale. L’e-commerce ha soppiantato le passeggiate tra i negozi, fenomeno accentuato ancor di più dall’emergenza sanitaria. Siamo spinti a comprare online, perché è online che ci vengono forniti i consigli per gli acquisti più convincenti. Raccomandazioni elaborate sulla base delle attività e degli acquisti precedenti di ogni singolo utente.

  • Molte PMI stentano ad avvicinarsi alle soluzioni Open Source a causa di alcune paure giustificate. Ma un tentativo è d’obbligo perché i vantaggi sono considerevoli.

    Le soluzioni Open Source sono sempre più apprezzate dalle aziende, soprattutto da quelle che possono sfruttare il supporto di un’area IT interna preparata. Allo stesso tempo le piccole PMI, che non hanno a disposizione delle professionalità adeguate, stentano ad avvicinarsi con fiducia verso l’Open Source. È una distanza tra i due approcci attualmente considerevole e che potrebbe riversarsi poi su una competitività completamente squilibrata. Ma dinanzi alle ritrosie ragionevoli delle PMI si può comunque trovare una strada vantaggiosa per adottare i software Open Source in azienda. Vediamo come.

    Perché le PMI rifiutano le soluzioni Open Source?

    Alla base della renitenza forzata di molte PMI ci sono delle problematiche evidenti e senz’altro plausibili. La prima riguarda l’aspetto meramente economico. Se la promessa delle soluzioni Open Source è quella di abbattere i costi legati alle licenze e alla manutenzione, è altresì vero che la spesa relativa ad operazioni come installazione, configurazione e valutazione potrebbe aumentare sensibilmente. Il motivo? Semplicemente chi promuove queste soluzioni non accompagna la consegna ad adeguato materiale informativo, come guide, brochure e documentazione tecnica. Da qui ne deriva la difficoltà nell’interiorizzare il funzionamento delle soluzioni Open Source e un relativo spreco di tempo e risorse.

    Molte proposte Open Source vengono scartate e accantonate per questo motivo. L’impressione, agli occhi degli acquirenti, è che si tratti di software poco professionali e quindi poco affidabili. Ad appesantire la soluzione vi è poi tutto il discorso legato all’assistenza. Come fare in caso di malfunzionamenti? La più grande paura delle PMI è quella di non potersi affidare ad un referente qualificato, ma doversi arrangiare internamente. Paura comprensibile, che ad onor del vero negli ultimi tempi sta per essere superata grazie a specifici contratti di assistenza forniti dai produttori.

    Open Source: i vantaggi sono considerevoli

    Se siamo qui a discernere sulla possibilità di utilizzare programmi Open Source è perché, oltre ai disagi, ci sono innegabili vantaggi operativi. Come già accennato nel paragrafo precedente i costi di licenze e aggiornamenti vengono quasi completamente abbattuti, consentendo alle aziende di eliminare una zavorra economica consistente. Altro elemento favorevole è l’interoperabilità con software esterni già installati. L’Open Source in questo campo garantisce facilità di integrazione e flessibilità che nessun programma proprietario (solitamente molto ingessati nella loro struttura) riesce a garantire. A tutto questo si aggiunge la possibilità, per chi possiede professionalità IT opportunamente formate, di aumentare e personalizzare le funzionalità del software a seconda delle esigenze aziendali.

    Proposta per una strategia OS

    Per fare un sunto del dubbio legato all’implementazione o meno di soluzioni Open Source all’interno delle PMI si potrebbe ridurre tutto ad un problema di costi: se in azienda ci sono professionalità IT in grado di dedicare tempo e risorse alla configurazione e valutazione del software allora vale la pena avvicinarsi all’Open Source. Se al contrario queste competenze latitano allora forse è preferibile spendere per licenze e aggiornamenti. L’ideale comunque è sempre fare un tentativo, un test. Le soluzioni Open Source hanno la forza di integrarsi perfettamente con l’ecosistema di soluzioni già presente in azienda, cosa invece non garantita dai software proprietari.

    Per le PMI che stanno pensando a questa strada il consiglio è quello di strutturare una prima ricerca sul software più indicato per le proprie esigenze e successivamente spendere un lasso di tempo per provare ad integrarlo in azienda. In questo modo è possibile capirne le poten...

  • La presenza di “cervelli elettronici” capaci di fornire una logica e un senso all’enorme volume di dati generati in intervalli di tempo sempre più ristretti si spiega perfettamente all’interno dell’attuale “rivoluzione informatica” orientata a soluzioni atte a porre in interconnessione oggetti, esseri viventi, edifici, strumenti medicali... attraverso IoT o l’edge computing

    L’infrastruttura digitale di un Paese è costituita dalla rete di telecomunicazioni, dalla rete elettrica, dai punti di scambio Internet e dai centri dati. Nessuno di loro può essere concepito senza gli altri. Un fatto curioso da tenere a mente è che il 99% del traffico di rete a un certo punto scorre su cavi, sia interrati che sott’acqua, collegati ai Data Center, unità organizzative che all’interno delle strutture aziendali governano, gestiscono e mantengono efficienti le apparecchiature e i servizi di gestione dei dati, cioè l’infrastruttura e i sistemi informativi a servizio dell’organizzazione aziendale.

    Non è più pensabile, ormai, una tipologia di business che non poggi la gestione dei propri asset e risorse su un Data Center, unità organizzativa che all’interno di una struttura aziendale governa, gestisce e mantiene le apparecchiature e i servizi di gestione dei dati, cioè l’infrastruttura e i sistemi informativi a servizio dell’organizzazione aziendale. Cuore pulsante della Digital Transformation e, più ampiamente, dell’economia digitale, i Data Center sono gli edifici che contengono infrastrutture, sistemi, risorse e asset tecnologici invisibile agli utenti ma senza i quali non potrebbero lavorare o accedere a dati, applicazioni, servizi digitali.

    Impatto politico e strategico della delocalizzazione dei Data Center

    Non va sottovalutato l’effetto della delocalizzazione dei Data Center in particolari aree geografiche: nell’ambito del diritto informatico internazionale, ancora in fieri, non sono ancora definiti i vincoli normativi e i poteri di giurisdizione in capo ai diversi Stati nei confronti di strutture la cui funzione è elaborare dati provenienti da tutto il mondo.

    Molto recente è l’apertura in Irlanda, da parte di Tik Tok, di un centro di elaborazione dati dedicato a raccogliere video, messaggi e altri dati generati da utenti europei. La mossa del colosso cinese – un investimento di circa 500 milioni di euro con conseguente creazione di centinaia di posti di lavoro – appare ancora più significativa se posta in relazione con la controversia che negli Stati Uniti era stata aperta dal Governo Trump, allarmato per i rischi sulla sicurezza nazionale connessi al continuo fluire di dati di cittadini americani verso i quartieri generali di Tik Tok con sede a Singapore.

    Data Center e tecnologie emergenti

    Le tecnologie definite “disruptive” (Cloud, 5G, blockchain, IoT) stanno rivoluzionando il nostro modo di vivere e agire. Società ed economia sono ormai letteralmente fondate su architetture digitali e software che acquisiscono, producono, scambiano ed elaborano informazioni in tempo reale e, senza soluzione di continuità, ai Data Center spetta un un ruolo di primo piano.

    Non lascia dubbi sulla futura rilevanza dei Data Center di nuova generazione la grande varietà di applicazioni in cui l’IoT interverrà congiuntamente a 5G, non una semplice evoluzione nel campo delle telecomunicazioni, ma l’apertura all’interconnessione continua di uomini, dispositivi ed oggetti, creando una rete universale in grado di scambiare quantità ingenti di dati.

    L’Intelligenza Artificiale richiede, per sua natura, l’impiego di elevate risorse computazionali, difficilmente trasportabili su dispositivi di tipo “client” orientati verso la dinamicità e la leggerezza più che verso la potenza di calcolo. Ancora, ad imprimere una svolta nella storia e nella fisionomia dei Data Center è uno dei “trend topic” digitali degli ultimi anni, la blockchain, che in sintesi, potrebbe arrivare a utilizzare Data Center super-sicuri in tutto il mondo per ...

  • Parlando di IoT nell’ambito dell’automotive spesso si rischia di limitare il discorso alla tematica dei veicoli connessi a guida autonoma. Ebbene, lo scenario che si sta aprendo si presenta molto più ricco e variegato. Vediamo insieme i molteplici vantaggi per utenti e fornitori che questa tecnologia mette a disposizione. A partire dalla sicurezza

    È indubbio che il mondo automotive risulta essere fra i più avanzati nell’adozione dell’Internet of Things. Il motivo? È presto detto! Si tratta di una tecnologia abilitante che permette di realizzare una vasta gamma di funzioni e servizi impossibili da ottenere in altri modi. Insomma, non solo veicoli connessi e guida autonoma nelle potenzialità dell’IoT.

    IoT nell’automotive: la sicurezza in primis

    Un primo esempio di quanto detto è quello dei sistemi di sicurezza contro il furto degli automezzi. Un dispositivo connesso fa sì che il veicolo rubato possa essere rintracciabile in ogni momento, indicandone in maniera estremamente precisa la posizione e addirittura impedendone l’accensione. Oppure inviando alle forze dell’ordine informazioni fondamentali per il suo recupero. Beneficio estremamente vantaggioso per il proprietario, ma altresì per il venditore, per cui questo tipo di servizi rappresenta un interessantissimo potenziale commerciale. Servizi che, tra l’altro, possono rientrare nell’ambito dell’offerta autonoma, così come in un quadro più generale proposto da società di fleet management, operatori delle telecomunicazioni se non direttamente dalle case automobilistiche medesime.

    Sempre a proposito di sicurezza in ambito automotive, altrettanto importante è la possibilità offerta dall’IoT per quanto concerne gli interventi in caso di incidente. Cosa accade in questo caso? Il dispositivo montato a bordo veicolo sarà in grado di rilevare in modo automatico una collisione, valutando in tempo reale la gravità dell’evento e comunicandolo alla centrale operativa. Gli operatori saranno quindi pronti a intervenire in modo sollecito.

    Altri benefici “sociali” (per un automobilista contento)

    Per quanto riguarda il sistema di assistenza stradale, le società operanti nel settore possono godere di ampi benefici dalle tecnologie IoT. La comunicazione bidirezionale con veicolo e conducente rende infatti molto più interattivo e tempestivo l’intervento di soccorso all’automobilista rimasto in panne. Serve un carro attrezzi? In questi casi l’uso di sensoristica e sistemi di gestione IoT minimizza disagi e tempi di attesa. Un servizio di questo genere è senza dubbio un asso nella manica del venditore e un motivo di tranquillità per il potenziale acquirente.

    Ancora, la manutenzione degli automezzi. Anche da questo punto di vista le tecnologie IoT rappresentano senza tema di smentita un preziosissimo supporto. Basandosi su parametri preimpostati (come i chilometri percorsi o gli anni di attività), è infatti possibile comunicare al momento giusto la necessità di effettuare interventi di manutenzione programmata. Non solo. Attraverso la capacità di calcolo erogata da sistemi di edge computing vengono analizzati i parametri del veicolo ed è pertanto possibile allertare gli operatori riguardo a eventuali criticità. Il che consente di avvisare tempestivamente il conducente evitando l’insorgere di danni gravi, preservando altresì l’incolumità stessa di chi si trova a bordo.

    I dispositivi IoT possono essere estremamente utili anche per le compagnie assicurative. Facciamo l’esempio delle “scatole nere”, ultimamente sempre più presenti nei pacchetti proposti ai propri clienti. Pensiamo solo al vantaggio di poter contare su dati oggettivi in caso di incidente (la velocità a cui viaggiava un veicolo, per esempio, oppure se era fermo e non in movimento), che abbatte i rischi di frode assicurativa e al contempo tutela i conducenti onesti. Non certo un aspetto di poco conto!

    In conclusione, appare importante ribadire che gli utilizzi della tecnologia IoT nel campo ...

  • Per anni i programmi open source hanno affascinato milioni di programmatori. Poi, hanno destato l’interesse di migliaia di PMI che hanno creduto subito in questa tipologia di software. Infine, grazie all’investimento epocale di IBM, il modello open source si è aperto un futuro ricco di opportunità.

    Se l’obiettivo di ogni impresa è quello di massimizzare il profitto, allora, tale scopo si può raggiungere solo tenendo conto di tutti gli aspetti che riguardano l’azienda, dalla gestione del personale a quella magazzino, dalla sostenibilità delle spese alla produttività. Ai tempi dell’Industria 4.0, per ottenere un completo controllo di una società c’è bisogno solamente di una connessione di rete, di una serie di computer e degli specifici software. Una delle migliori soluzioni per gestire efficacemente la propria impresa è quello di utilizzare i software gestionali open source, ovvero delle potenti applicazioni facilmente scalabili a proprio piacimento e integrabili con altre piattaforme.

    I programmi in questione prendono il nome di ERP, ossia Entreprise Resource Planning (ossia, Pianificazione delle Risorse di Impresa). L’esigenza sempre maggiore di limitare i costi ha decretato il successo dei gestionali open source, che attualmente vengono impiegati con grande soddisfazione da imprese di ogni tipo e livello, dai semplici negozi di piccola portata a importanti aziende attive nell’import-export. Il numero crescente di imprese operanti nell’e-commerce è dovuto anche alla possibilità di gestire in maniera facilitata vendite, spedizioni e pagamenti con l’ausilio dei gestionali con codice aperto.

    Come funziona un gestionale open source

    Un classico esempio riguardo il funzionamento di un ERP è rappresentato dalla semplice gestione di un ordine. Non appena il cliente completa le operazioni di acquisto di un determinato prodotto, nasce automaticamente un ciclo di interazione che coinvolge diversi reparti, dipendenti e collaboratori. Infatti, l’ufficio vendite vendite, potrà immediatamente verificare il buon fine del pagamento e in seguito trasmettere l’ordine al magazzino, che penserà a evadere la merce e, simultaneamente, ad aggiornare le disponibilità di quel preciso articolo. L’intero processo di vendita, chiaramente, è consultabile anche dal servizio amministrativo, che emetterà i vari documenti fiscali e contabili, oltre a riconoscere le eventuali commissioni per i venditori.

    Vantaggi di un ERP

    Che sia open source o a pagamento, un gestionale presenta dei vantaggi innumerevoli. Uno dei principali è quello di accorciare i tempi di comunicazione tra i reparti, i quali possono scambiare, aggiornare e consultare informazioni quando opportuno. Ciò ha dei risvolti positivi sia sulla produttività, poiché permette ai lavoratori di gestire diversi processi in contemporanea, che sull’efficienza del lavoro, in quanto ogni situazione è sempre accessibile e verificabile. In questo modo si possono gestire con la massima comodità una serie di aspetti fondamentali, dagli acquisti alle vendite, dallo storico dei clienti agli eventuali servizi di assistenza richiesti. Tutto questo significa consumatori soddisfatti, personale efficiente e amministrazione costantemente sotto controllo.

    I vantaggi di un ERP open source

    Il primo vantaggio che naturalmente viene in mente è quello inerente alla gratuità. Trattandosi di software open source, i gestionali di questa categoria sono scaricabili e installabili in via del tutto gratuita collegandosi al sito dello sviluppatore, risparmiando importanti cifre. In secondo luogo si ha la possibilità di implementare le funzioni originali messe a disposizione dell’applicazione. Per fare ciò vi sono varie soluzioni: avere delle conoscenze informatiche avanzate e specifiche degli ERP; rivolgersi allo sviluppatore per ottenere le modifiche richieste; iscriversi a delle comunità dedicate al mondo dei gestionali open source, così da entrare in possesso delle informazioni desid...