Executive Data Scientist con R + python nell'era dell'edge computing
Formula 100% pratica - Prenota il tuo postoCorso in promozione!
€330,00 IVA INCLUSA Max 10 partecipanti Per info 393.9953063 marketing.diskover@gmail.com
Corso Data Scientist Executive, 100% di pratica: 32 ore frontali + 50 ore work experience.
Opportunità di inserimento lavorativo come Junior Data Scientist
In collaborazione con la startup Diskover Srl (visita il sito https://diskover.it/ ), impegnata nella gestione di progetti di Big Data e Machine Learning per grandi realtà industriali, abbiamo ideato e costruito un percorso Executive, 100% di pratica.
Particolare attenzione verrà posta alle tecniche di Edge e Cloud computing nonchè sulla gestione di volumi di dati frequenti e massivi generati da sensori fino a 200ms in ambito dell’IoT (internet of things)
Obiettivo del corso è quello di mettere in condizione il partecipante di comprendere le tecniche di acquisizione dati, nonchè maneggiamento finalizzato alla costruzione di algoritmi di apprendimento automatico e, alla fine, costruire e deployare web app direttamente sul web
Verranno affrontate anche tecniche di PLC e di soluzioni di retroazione controllata, ovvero, di closed loop in modo da comprendere come impianti e dispositivi mobile possono generare regole di apprendimento e autoregolarsi in maniera automatica
Al termine del corso, i discenti, avranno l’occasione di frequentare una work experience fino a 60 ore su casi reali. Successivamente, i migliori, verranno inseriti su progetti reali a fianco di Multinazionali come Junior Data Scientist Il candidato ideale presenta interessi nel campo dell’analisi statistica, è curioso, è intuitivo ed ha quella giusta curiosità indispensabile ad approfondire strutture di correlazioni.
Coordinatore scientifico è Riccardo Di Nisio, fondatore di Diskover srl e attualmente responsabile di progetti di Intelligenza Artificiale e Data Science per conto di diverse multinazionali, nonchè docente di Business School come il Sole24Ore
Calendario
Per ulteriori informazioni clicca sul link Corso Data Science Diskover
Per ricevere il Modulo di Iscrizione, contattaci!
Giorno | Orario | N Ore |
---|---|---|
Venerdì 9 Giugno 2023 | 15:30 – 19:30 | 4 |
Sabato 10 Giugno 2023 | 9:30 – 13:30 | 4 |
Venerdì 16 Giugno 2023 | 15:30 – 19:30 | 4 |
Sabato 17 Giugno 2023 | 9:30 – 13:30 | 4 |
Venerdì 23 Giugno 2023 | 15:30 – 19:30 | 4 |
Sabato 24 Giugno 2023 | 9:30 – 13:30 | 4 |
Venerdì 30 Giugno 2023 | 15:30 – 19:30 | 4 |
Sabato 1 Lulglio 2023 | 9:30 – 13:30 | 4 |
Totale | 32 ore |
Programma e struttura
1° MODULO
Introduzione ai Dati e al Data Ingestion
Obiettivi
L’acquisizione dei dati è la parte centrale più importante dell’attività del data scientist. Quando si parla d data science in azienda, si ha a che fare con una figura in grado di identificare i pattern latenti non visibili ad ‘occhio nudo’. Per prima cosa, quindi, occorre collegare tra di loro le diverse fonti di dati aziendali. Basti pensare a quanti data base vengono gestiti in maniera non integrata: CRM, SAP, gestionali, LOG, etc…. La prima attività, è dunque quella di acquisire i dati e integrarli in strutture che prendono il nome di Data Lake. Questo modulo è dedicato a presentare le competenze base finalizzate all’integrazione dei dati aziendali in un’ottica di Big Data.
Contenuti
- Cosa si intende per Big Data
- Esempi di Big Data in azienda
- I formati diversi dei dati
- Introduzione al Data Modelling
- Esempi di acquisizione dei dati:
- Formati speciali AWRO
- I formati json
- La sintassi SQL e no sql
- Verso un’integrazione dei dati: i data lake
- Gli ecostistiemi Hadoop e Spark
2° MODULO
Il Data Modelling: il linguaggio di R e Python
Obiettivi
Oggi giorno, il data modelling dei big data viene effettuato o attraverso Python o attraverso R. In questo modulo vengono fornite le basi operative per poter lavorare in R. Verranno presentate le principali librerie per il trattamento preliminare dei dati per il parsing delle variabile. Obiettivo è quello di fornire le giuste basi per rendere autonomo il disciente per muoversi nell’ambiente R
Contenuti
- Installazione di R e di RStudio
- Strutture dei dati in R (vettori, matrici, Array, Dataframe, Liste)
- I loop e le funzioni in R
- La fase di data trasformation
- Il parsing delle variabili
- Le funzioni regolari per il parsing
- La trasformazione delle variabili
- Il data cleaning e il trattamento delle anomalie
3° MODULO
Machine Learning e tecniche di apprendimento
Obiettivi
La fase più significativa del data scientist è quella che fa riferimento alla costruzione di algoritmi di apprendimento automatico, ovvero, al machine learning. In questo modulo verranno presentate le tecniche di apprendimento supervisionato e non supervisionato in chiave aziendale unitamente alle tecniche emergenti di boosting quali il random forest e il bagging. Obiettivo del modulo è quello di fornire, attraverso esempi guidati, una giusta consapevolezza di come realizzare e implementare algoritmi di apprendimento automatico
Contenuti
- Tecniche predittive supervisionate: regressione, classificazione attraverso gli alberi decisionali, il k-nn e il k-means
- Tecniche predittive non supervisionate: clustering, approcci bayesiani, reti neurali
- Tecniche boosting: random forest
- Esempi in ambito bancario
- Esempi in ambito log managment e cyber security
4° MODULO
Big Data in Practice: il mondo dell’IoT
Obiettivi
Fornire ai discenti le giuste competenze per il trattamento dei dati testuali. In questo modulo verranno trattate tutti i principali ambiti applicativi in particolare ai dati sensoristici Iot degli impianti e dei dispositivi mobile
Contenuti
- acquisizione dei dati dai social: facebook, twitter
- analisi del bag of words e creazione delle matrici tdm per l’analisi dei dati
- esempio di analisi in chiave SEO: ottimizzazione del testo per il posizionamento sui motori di ricerca
- esempio di analisi in chiave predittiva: analisi delle chat con il fine di migliorare la reputation aziendale
- la sentiment analysis per il monitoraggio del brand e dei personaggi pubblici
- il text mining sui testi e sui blog
5° MODULO
Shiny e app deploy: i sistemi closed loop
Obiettivi
Introdurre l’ambiente Shiny per il deploy delle app via web. Il vero valore del data scientist è la capacità di rendere fruibili i risultati delle analisi attraverso opportune interfacce in cui l’utente può, a piacere, modificare i parametri.
Contenuti
- Introduzione a Shiny
- Creare un’applicazione vuota (Template)
- Definizione Layout della User Interface
- Inserimento di elementi nell’UI: Input e Output
- Creazione di un grafico che reagisce agli Input
- Utilizzo di uiOutput per creare elementi dinamici dell’ UI
- Funzioni di base di ShinyBS (tooltip, popover, bsModal)
- Render dei pannelli basato su una condizione (Conditional Panel)
- Introduzione a reactive()
- Pubblicare la propria applicazione su Shinyapps.io (Deployment)
Sbocchi occupazionali
Obiettivo del corso è quello di formare profili da inserire in progetti reali a fianco delle imprese. Per questo motivo il corso è di natura estremamente pratica.
Docente del corso è Riccardo Di Nisio, consulente senior Data Scientist nei Big Data e analista di mercato.
Il corso è di tipo pratico e la teoria verrà ricavata direttamente dalla pratica. Come software verrà utilizzato l’IDE di R, ovvero, R-Studio. Durante il corso verranno scaricate e installate le maggiori librerie impiegate per l’analisi dei dati
Al termine del corso, a tutti i partecipanti viene rilasciato un attestato di partecipazione con la certificazione delle competenze acquisite
Cosa dicono di noi
Richiedi maggiori informazioni