Curso online en formato webinar, dividido en varias sesiones.
Podrá realizar preguntas y hablar con el profesor en directo, visualizando tanto la pantalla del profesor como la de los alumnos para los ejercicios prácticos.
Si no puede asistir a alguna clase, no se preocupe, todo el curso queda grabado y recibirá una copia de la grabación.
BONIFICABLE POR LA FUNDACIÓN TRIPARTITA EN ESPAÑA
CURSOS PERSONALIZABLES PARA EMPRESAS (horarios, sesiones, precios con descuento para varios alumnos de la misma empresa)
FECHAS: 6 jornadas en Marzo. 25, 27, 30, 01/04, 03/04, 06/04
HORARIO: 3 HORAS por día. 10 AM Buenos Aires, 2 PM España.
PRECIO: 480 euros
Objetivo:
Implementar un Datawarehouse una vez modelado que responda a las necesidades de negocio, es un desafió muy grande. Hay que tener en cuenta que objetos, tablas, vistas índices utilizar para lograr la mejor explotación de la información. No siempre los conocimientos del desarrollador están en esa dirección, se necesita un conocimiento más profundo sobre características particulares de distintos objetos, tales como las tablas externas, las tablas particionadas y organizadas por índices, como establecer grados de paralelismo y en qué caso, la necesidad de comprimir tablas y particiones, y muchos otros temas.
En este curso se estudiará y cada uno de estos objetos y su aplicación en la práctica.
Por su característica este curso está pensado en cubrir las necesidades de líderes de proyecto y técnicos, desarrolladores, analistas técnicos y funcionales, Administradores de base de datos.
Calendario
El curso esta diagramado para que el alumno pueda realizarlo en un total de 6 semanas, cada semana se tratarán los siguientes temas:
Semana 1
• Revisión de los conceptos de datawarehouse
• Fases del diseño
• Características de las fact tables y las dimensions
• Esquemas Star y Snowflake
• Optimización de querys
• Recibiendo filas de las fact tables
• Star Transormation • Bitmap Join
• Star Transormation Vs Bitmap Join
Semana 2
• Particionamiento
• Estrategia de particionado
• Indices particionados Globales y locales
• New Feature particionado en 11g
• Conceptos de paralelismo
• Operaciones que pueden ser paralelizadas
• Degree of Parallelism (DOP)
• Parallel DML, DDL, y QUERY
• Hint Parallel
• Ejecuciones serie y paralelo
• Parallel query
• Aplicando paralelismo a tablas particionadas
• Cuando usar Parallel DML y restricciones
• Vistas dinámicas que informan sobre operaciones paralelo
Semana 3
• ETL Carga
• Mecanismos de carga Loader y tablas externas
• ETL Transformación
• Transformaciones usando SQL
• CREATE TABLE … AS SELECT
• INSERT /*+ APPEND */ … SELECT
• Sentencias MERGE
• Insert condicionales
• Conceptos DML Error Logging
Semana 4
• Manejo de vistas materializadas
• Cuando usar vistas materializadas (MV)
• Tipos de vistas materializadas
• Crear, estimar tamaños de VM
• Storage de MV
• Modificar, eliminar MV
• Refrescos de las MV
• Métodos de refresco
• MV Particionadas
• Package DBMS_MVIEW
• Conceptos de query rewrite
• Ventajas del uso de query rewrite
• Carga diferencial usando MV
Semana 5
• Trabajando con Dimensiones
• Beneficios de usar una dimensión
• Creando dimensiones
• Dimensiones de múltiples tablas
• Múltiples jerarquías para una dimensión
• Constraints Versus Dimensions
• Restricciones de una dimensión
Semana 6
• Gestión de espacio
• Compresión OLTP y BASIC
• Validación de la compresión
• Operaciones Direct Path para distintos tipos de compresiones
• Loggin ó Nolloging
• Maximizando ratios de Compresión
• Carga On line o CDC
• Conceptos de Oracle Golden Gate
A lo largo de las 6 semanas el alumno aprenderá a utilizar objetos que permitan hacer datawarehouse performantes, garantizando la calidad de los datos utilizando las mejores estrategias, para ello.
Aprenderá a utilizar los distintos tipos de objetos y saber cómo actuar con el resultado de los mismos. Crear las estructuras con las condiciones que le permitirán optimizar los resultados.
Instructor: Gerardo Daniel Tezza, Director académico de Techlearning y Database Cordinator en Snowflake-bi con amplia experiencia en modelado e implementación de datawarehouse.