
Rilasciato da COREP
Consorzio per la Ricerca e l'Educazione Permanente
Data dell'evento:
dal 15/01/2019 al 23/01/2019
Durata:
48 ore
Crediti:
5,0 CFU
Descrizione:
Obiettivi:
Il corso mira a fornire allo studente le conoscenze base del Cloud Computing sia per quanto concerne i pregi che i difetti. Durante il corso vengono forniti esempi di casi d'uso del cloud computing e si dà la possibilita allo studente di sperimentare su testbed reali il funzionamento di 4 diverse piattaforme cloud: Amazon Web Service (AWS), Google Cloud Platform (GCP) e OpenStack. Vengono inoltre forniti alcuni cenni al Fog Computing e al Femtocloud.
Il corso mira inoltre a presentare i principi, i paradigmi, le tecnologie e gli strumenti principali che sono alla base dei moderni sistemi e architetture per il processamento di dati di grandi dimensioni nel cloud, integrando le parti teoriche con esempi pratici basati principalmente sulla piattaforma open-source Apache Hadoop.
Competenze:
Riconoscere le 5 caratteristiche fondamentali delle piattaforme cloud, i 3 diversi modelli di servizio e 4 modelli di deployment. Interagire con piattaforme per il cloud per svolgere operazioni di base e intermedie.
Gestire volumi di dati di grandi dimensioni nel cloud. Presentare l’architettura di un sistema per Big Data con termini e linguaggio tecnico appropriato. Orientarsi tra la varie soluzioni alternative per Big Data. Identificare le soluzioni più idonee per l’analisi di Big Data.
Competenze trasversali:
Fonte competenze trasversali:
Conoscenze:
Cloud Computing, Infrastructure as a Service (IaaS), Platform as a Service (PaaS), Software as a Service (SaaS), Public Cloud, Private Cloud, Hybrid Cloud, Data analytics, Stream analytics, Machine learning, Apache Hadoop.
Abilità:
Saper valutare le varie soluzioni cloud in base a criteri e saperli calare nel contesto aziendale. Conoscere i servizi offerti e scegliere quello ottimale in base al contesto e ai requisiti. Interfacciarsi con le piattaforme attraverso web console, command-line interface e sdk sia per gestire le istanze che i volumi di storage.
Riconoscere le problematiche e le potenzialità attinenti all’analisi di Big Data. Applicare le nozioni acquisite per l’analisi di Big Data. Utilizzare i principali framework open source per l’analisi di Big Data. Approfondire in maniera autonoma gli argomenti inerenti ai moderni sistemi e architetture per Big Data. Utilizzare le conoscenze e le metodologie acquisite per affrontare nuovi problemi attinenti ai Big Data.
Criteri di valutazione:
Superamento esame scritto.
Formatore:
MASSIMO CANONICO
Dal 2006, Massimo Canonico è ricercatore del Dipartimento di Informatica presso l'Università degli Studi del Piemonte Orientale. Da Dicembre 2005 ad Agosto 2006 è stato assegnista di ricerca presso lo stesso dipartimento, mentre nel Febbraio 2006 ha conseguito il titolo di dottore di ricerca presso l'Univeristà degli studi di Torino. Da Febbraio 2005 ha svolto un periodo di studi di 7 mesi come visitor scholar al diparimento di Informatica, Università della California (S. Barbara). Nel 2002, Massimo Canonico consegue la laurea in Informatica presso l'Università del Piemonte Orientale, con il punteggio di 110/110 lode e menzione d'onore.
I suoi interessi di ricerca includono i sistemi e i paradigmi di calcolo distribuiti (compresi il cloud computing e l’edge/fog computing) e la cybersecurity (in particolare, l’informatica forense). E’ autore di numerosi articoli pubblicati su prestigiose riviste scientifiche e in atti di congressi scientifici internazionali. E’ revisore di diverse riviste internazionali.
Nel 2020 è stato selezionato come Google Cloud Faculty Expert e come Amazon Web Services Educate Cloud Ambassador.
MARCO GUAZZONE
Marco Guazzone è attualmente un ricercatore a tempo determinato di tipo B presso il Dipartimento di Scienze e Innovazione Tecnologica dell’Università del Piemonte Orientale. Tra gli anni 1996 e 2006, ha lavorato per diverse aziende dell’IT, principalmente come sviluppatore e architetto software. Nel luglio 2007, ha ottenuto la laurea in Informatica all’Università del Piemonte Orientale. Nel marzo 2012, ha ottenuto il dottorato di ricerca in Informatica alla Scuola di Dottorato in Scienza e Alta Tecnologia dell’Università di Torino. Tra gli anni 2011 e 2015 è stato assegnista di ricerca presso l’Università del Piemonte Orientale e l’Università di Torino. Tra gli anni 2015 e 2019 è stato ricercatore a tempo determinato di tipo A presso l’Università del Piemonte Orientale. I suoi interessi di ricerca includono i sistemi e i paradigmi di calcolo distribuiti (compresi il cloud computing e l’edge computing) e la cybersecurity (in particolare, l’informatica forense). E’ autore di numerosi articoli pubblicati su prestigiose riviste scientifiche e in atti di congressi scientifici internazionali. Ha contribuito all’organizzazione di diversi congressi scientifici internazionali, ricoprendo vari ruoli tra cui membro del comitato tecnico, presidente del comitato tecnico, e di publicity chair. E’ revisore di diverse riviste internazionali e dal 2018 fa parte del comitato editoriale della rivista scientifica Springer Cluster Computing (ISSN: 1386-7857) in qualità di associate editor.
Altre informazioni:
Corso inserito nel master in Alto Apprendistato in Innovazione Digitale per il Settore Pubblico a.a. 2018/19 dell'Università degli Studi di Torino