-- publicidad --

Curso Machine Learning - Inteligencia Artificial

Cloud Formación TIC
Consulta precio y condiciones sin compromiso

Programa

ModeloCurriculum ha seleccionado de entre 69 Cursos Big Data ,este Curso para ti. El Curso Machine Learning - Inteligencia Artificial se imparte en modalidad Online y Tele presencial EN TODA ESPAÑA a excepción de Cataluña y Valencia.

Además de ser un curso totalmente práctico, también incluye un seminario de certificación de 25 horas para prepararte para la certificación oficial de AWS Certified Solutions Architect - Associate.
En paralelo realizarás un proyecto final que determinará la calificación en el certificado acreditativo de la formación.

Salidas profesionales:
Se considera que la Inteligencia Artificial es el mayor destructor de empleo de la historia, pero al mismo tiempo genera una oportunidad laboral inmensa para los que la estudien.Hoy hay una alta demanda de científicos de datos para Big Data, con paro 0% y con sueldos muy elevados. A esos datos en gran volumen se aplica Machine Learning para generar algoritmos y aprender según que vaya entrando más data. Actualmente hay empresas que cobran muchísimo dinero por hacer modelos de Machine Learning.

Requisitos


Temario

FORMACIÓN TECNICA
Introducción
Conceptos básicos, marco competitivo actual y tendencias futuras.

Power BI
Instalación, presentación del entorno, elaboración de aplicaciones básicas.

Introducción a R
Instalación de R y Rstudio. Presentación del entorno. Conceptos básicos de trabajo: importación de vistas y librerías.

Tidyverse
Presentación de la librería. Utilización de dplyr con ejemplos de programación.

Ggplot2
Introducción a la gramática de gráficos. Ejemplos de programación de las principales opciones. Presentación del material de consulta en Internet.

Power BI con Ggplot2 sobre R
Programación desde Power BI con Ggplot2 sobre R.

Anaconda
Instalación. Presentación del entorno y carga de librerías. Presentación de Jupyter bajo Python y R. Ejemplos básicos de exploración de datos con ggplot y pandas-profiling. Ejemplos básicos de Python. Ejercicios tutorizados.

Knime
Instalación. Presentación del entorno y carga de librerías. Tratamiento de flujo de datos. Ejemplos básicos de flujo. Ejercicios de programación tutorizados.

FORMACIÓN ESPECÍFICA

Las prácticas desde la clase 1 se realizan en Python, R, Knime y H2O.

Clase 1: Metodología de trabajo y estadística descriptiva univariante.
Metodología CRIPS-DM de desarrollo de proyectos de Ciencia de datos y fundamentos de los principios estadísticos.

Clase 2 : Estadística descriptiva multivariante y funciones de densidad y distribución.
Correlación estadística y estudio de las funciones más conocidas

Clase 3: Estadística inferencial y estadística bayesiana.
Test de hipótesis, teorema de Bayes y diferencia entre el pensamiento frecuentista y bayesiano

Clase 4: Fundamentos de machine learning.
Conceptos de sobreajueste, predicción, clustering, aprendizaje por refuerzo.

Clase 5: Importación y limpieza de datos.
Programación en Python, R y otros lenguajes para la preparación de los datos para los algoritmos

Clase 6: Primeros algoritmos y series temporales univariantes
ANOVA, ANCOVA, ARIMA, etc. Orientado a la creación de conocimiento partiendo de muestras

Clase 7: Técnicas de reducción de variables
Componentes principales, análisis factorial, análisis de correspondencias, etc.

Clase 8: Clustering
Búsqueda e interpretación de segmentos: Kmeans, Jerarquizado y DBScan.

Clase 9: Reglas de asociación
Análisis de la cesta de la compra en formato tickets y tabular.

Clase 10: Fundamentos de aprendizaje supervisado y preprocesamiento
Subconjuntos de entrenamiento, validación y test. Métodos de comparación de resultados: ROC, Lift, Matriz de confusión, etc.

Clase 11: Técnicas de exploración de datos
Power-BI. Exploración interactiva. Comunicación de conclusiones y mensajes mediante gráficos.

Clase 12: Árboles de decisión
Algoritmos de división horizontal. Árboles normales y condicionales.

Clase 13: Naive Bayes y KNN
Algoritmos sencillos. Búsqueda de probabilidades y búsqueda de vecinos más próximos.

Clase 14: Máquinas de soporte vectorial
Generalización del concepto de divisiones. Kernel. Uso de búsquedas mediantes grid para optimizar resultados.

Clase 15: Algoritmos ensamblados: Bagging, Boosting y Ramdom Forest
Concepto de ensamblado. Ensamblado libre y bagging. Primeros usos avanzados de los árboles de decisión para determinar la importancia de las variables.

Clase 16: Adaboosting
Ensamblaje boosting. Primer algoritmo.

Clase 17: Xgboosting
Ensamblaje boosting. Algoritmos ganador de los principales concursos.

Clase 18: Regresión no logística
Concepto de relación funcional entre objetivos y predictores. Influencia de observaciones, interpretación de coeficientes y métodos forward, backward y stepwise

Clase 19: Regresión logística
Modelo lineal general. Aplicación a las decisiones de la regresión.

Clase 20: Fundamentos de redes neuronales de una sola capa
Generalización de la regresión logística. Primeros conceptos de redes. Conceptos de Black-box

Clase 21: Fundamentos de Deep Learning.
Conceptos de optimización, regularización, perceptrón en varias capas. Tensorflow y Keras.

Clase 22: Deep Learning aplicado
Ejemplos de Keras aplicados a la predicción del análisis del sentimiento

Clase 23: Tratamiento del sobreajuste en Deep Learning
Ejemplos de Keras aplicados a la predicción de una clases o de varias clases, así como a predicciones numéricas

Clase 24: Redes convolucionales para imágenes
Modelos avanzados para la clasificación de imágenes

Clase 25: Deep Learning para Textos
Modelos avanzados para el procesamiento del lenguaje natural

Clase 26: Conclusiones Deep Learning y redes Kohonen
Modelos avanzados para el uso de grafos. Redes neuronales no supervisadas

Clase 27: Análisis discriminante y Procesamientos de lenguaje natural
Algoritmo lda e introducción a la minería de textos

Clase 28: Minería de textos
Profundización de la minería de textos.

Clase 29: Interpretación de modelos
Profundización de la minería de textos.

Clase 30: Algoritmos complementariarios
Uso del entorno H2O Aquarium de utilización de la inteligencia artificial para la optimización de algoritmos

Clase 31: Proyecto 1. Titanic
Resolución de casos propuestos o por el profesor o por los alumnos. Técnicas de presentación a clientes.

Clase 32: Proyecto 2. Predicción de ventas
Resolución de casos propuestos o por el profesor o por los alumnos. Técnicas de presentación a clientes.

Clase 33: Proyecto 3. Predicción inmobiliaria
Resolución de casos propuestos o por el profesor o por los alumnos. Técnicas de presentación a clientes.

Clase 34: Proyecto 4. Predicción del tráfico
Resolución de casos propuestos o por el profesor o por los alumnos. Técnicas de presentación a clientes.

Clase 35: Proyecto 5. Predicción de la calidad del vino
Resolución de casos propuestos o por el profesor o por los alumnos. Técnicas de presentación a clientes.

Clase 36: Proyecto 6. Segmentación de estudiantes
Resolución de casos propuestos o por el profesor o por los alumnos. Técnicas de presentación a clientes.

Clase 37: Proyecto 7. Predicción de ventas de un Black-Friday
Resolución de casos propuestos o por el profesor o por los alumnos. Técnicas de presentación a clientes.

Clase 38: Proyecto 8. Segmentación de clientes de un compañía de móviles
Resolución de casos propuestos o por el profesor o por los alumnos. Técnicas de presentación a clientes.

Clase 39: Proyecto 9. Clasificación de documentos
Resolución de casos propuestos o por el profesor o por los alumnos. Técnicas de presentación a clientes.

Clase 40: Proyecto 10. Recomendar películas a usuarios
Resolución de casos propuestos o por el profesor o por los alumnos. Técnicas de presentación a clientes.

Objetivos

En este curso aprenderás cómo utilizar Amazon EMR para procesar datos con el amplio ecosistema de herramientas de Hadoop como Hive y Hue. Big data en AWS le presenta las soluciones basadas en la nube, como Amazon EMR, Amazon Redshift y el resto de la plataforma de big data de AWS. También aprenderás crear entornos de big data, a trabajar con Amazon DynamoDB, Amazon Redshift, Amazon Quicksight, Amazon Athena y Amazon Kinesis, así como a utilizar las prácticas recomendadas para diseñar entornos big data.

Duración

Carga lectiva 200 horas
Formación técnica 50 horas
Formación específica 100 horas
Proyecto de evaluación 25 horas
Seminario certificación 25 horas

Precio

Consultar

Solicita información GRATIS sobre este curso

Seleccionar esta opción significa que aceptas la política de privacidad y las condiciones de uso de topformacion.com
-- publicidad --
Modelo Kassel
Modelo Vegas
Modelo Hexa
Modelo Route
Plantillas de CV PREMIUM