Predizione di un evento attraverso Naive Bayes OnLine

InformaticaGestionale.it propone ai suoi lettori il nuovo servizio online che sfrutta il teorema di Bayes per fare predizioni di qualsiasi tipo grazie ad un set di dati storici eseguiti su specifici attributi. L’obiettivo è predire un determinato target o valore a partire da un nuovo set di attributi.

Questo può essere utile in moltissimi campi di applicazione: dal sociale alla medicina, dalla manutenzione alla produzione industriale.

Ecco una carrellata di esempi:

  1. lotti di produzione PC difettosi sulla base di attributi come temperatura (alta, media, bassa), velocità di produzione, tipo PC (standard, custom), qualità materiali (ottimo, scarso, buono). Riusciamo quindi ad identificare se un lotto sarà difettoso oppure no.
  2. l’acquisto di un prodotto da parte di un potenziale cliente in base ad attributi quali dimensioni azienda (piccola, media o grossa), tipologia azienda (servizi o manifatturiera), prezzo del prodotto.
  3. capire se una persona ha una determinata malattia sulla base di attributi quali sintomi, sesso, esami che determinano se l’individuo è malato oppure no.
  4. capire se un macchinario industriale ha bisogno di manutenzione (in modo da prevenire eventuali guasti) sulla base del tempo di funzionamento, velocità di produzione, complessità del prodotto (semplice, medio, complesso).

Il modello matematico utilizzato è basato su record storici che sono stati preventivamente inseriti (training_set). In base a questi record è possibile predire una determinata condizione preventivamente inserita nel testing_set.

Il calcolo della probabilità condizionata per ognuna delle casistiche determina la probabilità che si verifichi l’evento 1 oppure l’evento 2.

La predizione verrà orientata sull’evento con più alta probabilità.

 

ad esempio:

Data la seguente traingin table, vogliamo predire il valore della riga segnata in giallo (testing table)

 

TIPO AUTO TIPO GUIDA TIPO STRADA KM PERCORSI PREZZO AUTO TARGET
SUV SPORTIVA MISTO 4000 65000 NO MANUTENZIONE
UTILITARIA PASSEGGIO CITTA 80000 30000 MANUTENZIONE
SUV PASSEGGIO MISTO 15000 80000 NO MANUTENZIONE
UTILITARIA SPORTIVA CITTA 8000 20000 MANUTENZIONE
MONOVOLUME SPORTIVA MISTO 4000 65000 NO MANUTENZIONE
MONOVOLUME LAVORO CITTA 80000 40000 NO MANUTENZIONE
SUV LAVORO MISTO 250000 120000 MANUTENZIONE
UTILITARIA LAVORO AUTOSTRADA 70000 10000 MANUTENZIONE
UTILITARIA SPORTIVA MISTO 200000 12000 TO PREDICT

 

Secondo Naive Bayes il valore predetto è MANUTENZIONE : 3.6747338165603E-13

Se, invece di mettere 200.000 km percorsi mettiamo solo 20.000km allora la macchina risulta in NO MANUTENZIONE

qui l’esempio, potete provare a cambiare il testing set e visualizzare il valore predetto: ESEMPIO1

Clicca qui per la DEMO

IdempiereIOT: gestione delle risorse fisiche aziendali

Per risorse fisiche intendiamo tutti i beni “tangibili” in un’azienda, siano essi di supporto oppure di core-business:

  • documentazione cartacea (es. cartelle cliniche, cartelle giuridiche, fatture, ordini…)
  • dispositivi elettronici aziendali (server, PC, notebook, tablet, smartphone, allarmi…)
  • parco auto aziendale
  • macchine industriali
  • sensori e attuatori

IdempiereIot prevede la gestione “intelligente” di questi dispositivi:

  • Virtualizzazione dei beni aziendali: ogni bene aziendale può essere associato su Idempiere: è possibile categorizzarlo, inserire informazioni aggiuntive (es. data prossimo controllo), link ad allegati…
  • Gestione dello stato del bene: (es. occupato, disponibile, guasto…)
  • Interazione con altri beni aziendali: (es. se un server lavora per diversi giorni con temperature ambiente troppo elevate allora si presume, in base ai dati storici, che si danneggi nel giro di poco tempo. A questo punto il “motore centrale” invia un alert all’operatore ed invia un segnale al termostato per abbassare automaticamente la temperatura).
  • Interazione con il sistema ERP: es. associazione di un bene ad un dipendente (es. assegnazione di un notebook aziendale), condivisione di un bene con più dipendenti (es. macchina industriale), tempo di utilizzo di un bene da parte di un dipendente, scannerizzazione tag cespite direttamente sul “bene”…
  • Storicizzazione di tutti gli eventi avvenuti su qualsiasi bene virtualizzato.
  • Acquisizione informazioni di un “bene” attraverso il proprio smartphone fotografando il qrCode o avvicinando l’NFCTag associato tramite l’applicazione FlowItems.
  • Dashboard con analisi in tempo reale

NodeRed è il motore che gestisce i beni aziendali tramite protocolli standard e li mette in comunicazione con Idempiere attraverso i webservices.

RealTime analysis

Nel caso di gestione di macchine industriali questa soluzione rientra nelle specifiche dell’industria 4.0.

L’architettura del sistema è studiata per essere facilmente adattabile alle necessità di ogni cliente.

Una nuova soluzione in cloud per industria 4.0

 

 

InformaticaGestionale.it da quando si occupa anche di IIOT (Industrial Internet Of Things) è alla ricerca di soluzioni che possono essere utili sopratutto alle esigenze dei nostri lettori (piccole e medie imprese manifatturiere o di servizio).

Sul mercato esistono già svariate soluzioni. Quello che vi proponiamo è l’integrazione di diverse software “eccellenti” ognuna per il proprio campo di applicazione. Il tutto offerto in modalità “cloud“.

 

Sfruttando protocolli riconosciuti a livello mondiale e tecnologie d’avanguardia siamo in grado di proporre un sistema che gestisce gli asset aziendali o le macchine industriali connettendole con il sistema integrato gestionale ERP.

Overload informativo e nuove tecnologie

Le nuove tecnologie, se ben integrate all’interno di un contesto aziendale, permettono un efficientamento dei flussi lavorativi ed un conseguente miglioramento delle performance su diversi KPI.

L’insieme dei sensori, degli attuatori, degli algoritmi per elaborazione dati, delle analisi e della creatività con i quali queste tecnologie interagiscono possono ridurre sensibilmente i costi dovuti a sprechi durante i processi aziendali e possono migliorare i tempi di processo.

La vera sfida è sfruttare le tecnologie esistenti in maniera intelligente evitando in tutti i modi l’overload informativo. Ovvero, avere più dati di quanti l’organizzazione sia capace di elaborare per trarne vantaggio.

L’eccesso informativo può essere infatti controproducente se non si riesce a gestire. L’impiego delle ultime tecnologie (capaci di generare dati in qualsiasi momento) e l’abbondanza dei dati aziendali richiedono l’impiego di avanzati sistemi di analisi.

I dati di per se, presi singolarmente, possono non essere significativi.

Per generare informazione “utile”, i dati devono essere associati tra loro in maniera intelligente e secondo alcune regole che determinano i contesti sui quali vengono analizzati (ad esempio, il dato “nome di una persona” se viene associata al dato “cliente” ci fornisce l’informazione che quella persona è un cliente. Oppure, se prendiamo il dato temperatura “T0” ed il dato “macchinaA” allora abbiamo l’informazione che la macchinaA ha una temperatura T0).

Prima di iniziare nuovi progetti informatici bisognerebbe anzitutto capire quali sono le reali esigenze aziendali. Fare uno studio dei processi e definire i KPI sui quali intervenire per avere miglioramenti sia nel breve che nel medio periodo.

Dopo di che, definire le tecnologie da adottare che supportino il raggiungimento degli obiettivi cercando di affidarsi a soluzioni più avanzate che hanno la caratteristica di interagire facilmente ed a bassi costi con sistemi eterogenei.

Da tenere in considerazione che uno dei fattori più critici delle tecnologie “passate” era la difficoltà di interagire con i sistemi eterogenei. Per fare integrazione tra diversi sistemi erano necessarie ore di analisi, sviluppo e di costante monitoraggio dei dati. Oggi, grazie all’impiego di standard affidabili e poco costosi di comunicazione, è possibile integrare i diversi sistemi in poco tempo e con limitati sviluppi.   

Sperando di avervi dato altri spunti per vostri futuri progetti, se avete bisogno di altre informazioni, potete contattarci o scrivere commenti.

Sicurezza informatica, a chi interessa veramente?

Diciamo la verità, la sicurezza informatica e la protezione dei propri dati non interessa quasi a nessuno.

Dopo gli ultimi attacchi hacker che hanno interessato anche importanti gruppi politici ho letto pochissime cose sensate, anzi, ho letto sempre le solite manfrine da parte di chi non è del settore.
Come se anche questo argomento facesse parte di un teatro politico fatto di finzioni e cose non dette o dette in parte.

Parlando in giro con amici e cercando di affrontare l’argomento in maniera imparziale noto sempre una certa superficialità; come se l’argomento non fosse così interessante da inserirlo in una seria discussione.
Eppure, se si approfondiscono serenamente le argomentazioni, cose di cui preoccuparsi ce ne sono.
La prima cosa che mi viene in mente è che le persone non addette ai lavori non hanno la minima idea di cosa vuol dire accedere alle informazioni su internet. Come non hanno idea di cosa succede ai nostri dati quando vengono postati su internet.
Non conoscono le reti sulle quali viaggiano i dati. Non conoscono come sono strutturati gli impianti informatici. Non sanno nulla di database.
Mi domando,
com’è possibile prendere delle posizioni (o peggio, anche delle decisioni) senza conoscere un minimo di basi di informatica?

Purtroppo questo succede anche nelle pubbliche amministrazioni e nelle imprese private.
Prendo solo come esempio le votazioni online e della discussione che ne è scaturita: è possibile che a nessuno possa venire in mente che “tecnicamente” il voto è manipolabile semplicemente attraverso una piccola istruzione eseguita su un database? (da parte di chi in questo momento non è importante, l’importante è sapere che tecnicamente si può fare) oppure che il voto non è anonimo?
Su questo punto possono esserci opinioni discordanti ma che tengano sempre conto della struttura informatica sui quali i sistemi si appoggiano.
Ad esempio,
io, sostenitore di software opensource per una serie di ragioni che non sto qui a spiegare, credo che un sistema che voglia definirsi trasparente (anche a livello politico) debba rilasciare i propri codici sorgenti. In questo modo tutta la comunità di sviluppatori e tester può contribuire a migliorare e risolvere eventuali falle che esistono ed esisteranno sempre.
Ci sono software commerciali che, invece, non rilasciano il proprio codice ma propongono contest indirizzati ad hacker proprio per individuare eventuali falle informatiche.
L’informatica è fatta così. Il software viene migliorato man mano che aumenta l’esperienza degli utenti.

Quindi mi chiedo, perchè ho la percezione che nonostante l’informatica sia penetrata così tanto nella vita delle persone, la sicurezza dei sistemi sui quali si affidano i nostri dati non importi quasi a nessuno?

Anche chi ricopre cariche prestigiose (ma non solo) nell’informatica di importanti aziende pubbliche o private è spesso carente di basi informatiche.
Il rischio è di esporre l’intera impresa o, peggio, pubblica amministrazione ad eventuali attacchi con conseguente perdita di dati sensibili.

Purtroppo sto notando un forte gap conoscitivo tra chi intende usare liberamente i sistemi informatici affidandogli tutta la propria vita (persino cose che nemmeno lui stesso si ricorderà di aver fatto) e chi questi sistemi li studia e li conosce.

Non vorrei che con il tempo si arrivasse al punto che i secondi si approfittino dei primi (anzi, in alcuni ambiti ci siamo già arrivati).