Seminario Interdisciplinar de Ciencias
Las últimas ediciones se centran en temas de "Data Science & Machine Learning"
El Seminario Interdisciplinar de Ciencias es un espacio académico que nace de la permanente y natural necesidad de discutir, dialogar, reflexionar, interactuar y aprender sobre el avance y el desarrollo propio de las ciencias. En ese sentido, el Seminario Interdisciplinario de Ciencia nace como un espacio que propicia la disertación, la asimilación y el aprendizaje de temas relacionados propios de las Ciencias y la relación que entreteje con otros campos del conocimiento y de la creatividad artística. Es abierto a todo público.
Lugar: Aula B-108, Campus Politécnico Grancolombiano, Bogotá.
Organiza: Departamento Ciencias Básicas, Politécnico Grancolombiano, Bogotá D.C
Coordina: Andy Domínguez M., adomingu@poligran.edu.co
¿Cómo llegar ? :
__________________________________________________________________________________________________________________
Lugar: Aula B-108, Campus Politécnico Grancolombiano, Bogotá.
Organiza: Departamento Ciencias Básicas, Politécnico Grancolombiano, Bogotá D.C
Coordina: Andy Domínguez M., adomingu@poligran.edu.co
¿Cómo llegar ? :
__________________________________________________________________________________________________________________
__________________________________________________________________________________________________________________
2019-1
Miércoles 5:00 pm, 15 mayo 2019.
Aula H-107 Campus Politécnico Grancolombiano, Bogotá.
Título: Aplicación de un Modelo de Redes Neuronales Convolucionales para Clasificar Números Escritos a Mano.
Resumen: La Inteligencia Artificial y la Cuarta Revolución Industrial han venido popularizando diversos modelos y herramientas computacionales. Dentro de los modelos, se han clasificado algunos, como métodos de machine learning o aprendizaje automático, y dentro de estos, se encuentran técnicas conocidas como deep learning o aprendizaje profundo, estas técnicas son generados con redes neuronales artificiales, las cuales, pueden diferenciarse según su tipología, finalidad y procedimiento de compilación, entre otras. Las más conocidas son las redes neuronales clásicas, las redes neuronales convolucionales y las redes neuronales recurrentes. Las redes neuronales son compuestas por diversos niveles de jerarquía dentro de su topología. Donde, cada nivel contiene un número determinado de neuronas, entendidas en su mayoría por pendientes en una recta o compuestas por ecuaciones lineales y donde, un nivel inicial es la transformación no lineal de cada neurona generalmente ponderada. Luego, este resultado es enviado al siguiente nivel. El siguiente nivel combina la transformación no lineal de una pendiente y pasa está a un tercer nivel, y así sucesivamente. En este caso, se usarán las redes neuronales convolucionales (generalmente usadas para el reconocimiento de imágenes) para clasificar números escritos a mano y guardados como imágenes en una base de datos. Usando programación, cálculo diferencial y algebra lineal.
Sergio Alberto Mora Pardo: Profesional en Economía del Politécnico Grancolombiano. Ha sido ponente en temas de modelación estocástico en mercados financieros y modelos de lógica difusa en congresos internacionales tales como el Congreso Iberoamericano de Economía Aplicada. Es coautor de uno de los capítulos del libro MODELLING AND SIMULATION IN MANAGEMENT SCIENCE, editorial SPRINGER, titulado “Innovación Ligera en el Suministro de Energía para Zonas No Interconectadas en Colombia: Investigación Parcial vía Modelo de Efectos Olvidados”. Sus intereses se centran en en investigación cuantitativa, Econometría, Análisis Predictivo, Series de Tiempo, combinado con técnicas y algoritmos de inteligencia artificial.
__________________________________________________________________________________________________________________
Miércoles 5:00 pm, 8 mayo 2019.
Aula H-107 Campus Politécnico Grancolombiano, Bogotá.
Título: Implementación de un Modelo de Propensión de Compra en un Call Center mediante Modelos de Machine Learning.
Resumen: Los modelos de propensión de compra son muy útiles para lograr identificar los registros más propensos a comprar o adquirir cierto producto o servicio de una base de datos que puede tener información demográfica, información de consumo o de productos que tiene el cliente entre otras cosas. Los call centers que tengan campañas outbond, necesitan mucho de estos modelos ya que se dedican a las ventas de productos o servicios mediante llamadas telefónicas. Tradicionalmente, las personas dedicadas a estas campañas realizan los propensiones de compra de forma empírica, sin lograr ser muy efectivas a la hora de trabajar en producción. Herramientas del business analytics, permiten construir estos modelos de forma más adecuado, realizando modelos simples como una regresión lineal o modelos muy elaborados utilizando algoritmos de Machine Learning. En esta charla, se presentará algunas ideas de cómo a partir de la implementación de modelos de machine learning se puede incrementar las ventas en este tipo de campañas.
Alex Johann Zambrano Carbonell: Profesional en matemáticas con énfasis en Estadística de la Universidad del Tolima y Estudiante Magister en Ciencias-Estadística Universidad Nacional de Colombia. Consultor y docente Universitario en estadística aplicada, con experiencia en multivariado, segmentación de LA/FT, procesos de BPO y muestreo. Trabajo en sectores de Telecomunicaciones (Colombian Outsourcing Solutions), Investigación de mercados (Yanhass, Infométrika), empresas de sector solidario (Asoriegos), empresas estatales (INVIMA, Observatorio del Empleo y Recursos Humanos del Tolima) y Educación (Docente en el Politécnico Grancolombiano, Universidad Santo Tomás, Los Libertadores, Universidad del Tolima).
__________________________________________________________________________________________________________________
Miércoles 5:00 pm, 10 abril 2019.
Aula H-107 Campus Politécnico Grancolombiano, Bogotá.
Título: Análisis de Capacidades Académicas en el Politécinco Granclombiano con Herramientas de Minería de Texto.
Resumen: En esta charla se presentan los resultados de la comparación de contenidos de todas las asignaturas ofertadas en el Politécnico Grancolombiano, a través de un análisis de minería de texto sobre los sílabos. Esto se logró con base en la medición de distancias por medio de cuatro metodologías diferentes que luego se representan una visualización de dos dimensiones. Con esto, se puede identificar fácilmente, la similitud entre los contenidos de las asignaturas.
Con este trabajo se ilustra por qué en el portafolio de asignaturas, es probable que se tengan más cursos y denominaciones que las necesarias para cumplir con los contenidos temáticos de los programas académicos. También se demuestra que las agrupaciones de cursos por similitud trascienden la organización por escuelas.
En una segunda parte de esta charla, se ilustrará como usando una metodología similar, se analizarán -en proyecto de investigación que iniciará en el segundo semestre de este año- los perfiles de los docentes de la Institución a partir del análisis de las hojas de vida con información detallada de la productividad académica y los cursos dictados.
Así se motivará la creación de una ruta investigativa entorno a la evaluación de capacidades académicas con herramientas computacionales.
Julian Mauricio Cruz: Estadístico y Magister en Ciencias-Estadística Universidad Nacional de Colombia. Experto en estadística y minería de datos.
Frederick Andrés Mendoza: Ingeniero Industrial y Magíster en Ciencias Económicas Universidad Nacional de Colombia. Phd (c) Pensamiento Complejo MMREM (México). investigador en temas de calidad de educación superior y economía de la educación.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 27 marzo 2019.
Aula K-010(Aula informática), Campus Politécnico Grancolombiano, Bogotá.
Título: How Can we teach a machine to understand and analyze How people communicate?. Building metric spaces for Natural Language Processing of social network activity.
Resumen: In the growing and fast-changing field of machine learning, one of the most important areas of research and application is Natural Language Processing (NLP). This concerns the application of computational techniques to analyze and synthetize large volumes of written and spoken language data. Since computers are designed to work with numerical and well-structured data, the main problem with NLP is finding ways to transform natural language data (which is non-numerical and unstructured) into structured numerical data that is suitable for machine learning algorithms. In this sense, the term word embedding refers to a class of techniques that are specifically designed to perform this kind of data transformation.
In this talk we will introduce the concept of word embedding and discuss the different techniques that exists nowadays to build different kinds of word embeddings. The purpose of the talk is two folded (theoretical and practical). First, we will discuss the theoretical basis of the most prominent and widely used word embeddings followed by a presentation of some mathematical “still-open” challenges around these techniques. Then, we will have a hands-on session using some of the main libraries implemented in the python language to build a simple clustering algorithm of conversations in social networks.
Francisco Javier Camacho Rodríguez: Físico de la Universidad Nacional de Colombia (Bogota), M.Sc. en Física de la Universidad de Minas Gerais (Belo Horizonte - Brasil) con especialidad en astrofísica computacional, Google Data Engineer certificado por Google. Profesor de la la Escuela de Ciencias Básicas del Politécnico Grancolombiano. Es Data Scientist y Data engineer de Google cloud en Grupodot (LATAM Google Parner for Machine learning and analytics). Sus intereses se enfocan en métodos numéricos avanzados para la solución de sistemas de ecuaciones en derivadas parciales con aplicaciones a dinámica de fluidos y plasmas turbulentos, y por otro lado, se ha enfocado recientemente en desarrollo e investigación de productos y servicios basados en modelos de machine learning y más específicamente, deep learning.
__________________________________________________________________________________________________________________
2018-1
Miércoles 4:00 pm, 30 mayo 2018.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Optimization on Computer Vision
Resumen: In this talk I present some optimization problems on computer vision and mathematical methods for solution them. The main objective is to make visible differents perspectives in the solution of a problem and the need for a strong background in mathematics.
Diego Arévalo. Matemático y Maestría en Matemáticas de la Universidad Nacional de Colombia, Estudiante Doctorado en Matemáticas de la Universidad de los Andes .Profesor de Tiempo Completo del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 23 mayo 2018.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: PER de Shiller en el Mercado Integrado Latinoamericano MILA
Resumen: El trabajo se centra en determinar la validez de la utilización del PER de Shiller, (CAPE por sus iniciales en inglés Cyclically Adjusted Price Earnings – Ratio), en el Mercado integrado Latinoamericano (MILA) de forma particular en los países que lo conforman México, Perú, Chile y Colombia. Teniendo en cuenta aspectos fundamentales que distorsionan una presunta regresión a la media. Para lograr tal fin se tomó información sobre los mercados bursátiles de empresas representativas de estos países durante el periodo comprendido entre 2001 y 2010, con el fin de calcular el PER de Shiller, y poder realizar pruebas de estacionalidad de las series. Se determinó que dicho indicador (PER de Shiller) no tiene una reversión a la media y por ende no se asegura estabilidad en el largo plazo de la serie, es decir no se puede tomar como un predictor del comportamiento futuro del precio de las acciones en dichos países.
Ruben Amado. Economista Énfasis en Administración - Universidad Santo Tomás, Maestría en Administración de Empresas - Universidad de la Salle, Finanzas y Marketing - Universidad de la Salle México. Profesor de tiempo completo del Politécnico Grancolombiano.
Oscar Rincón. Economista - Universidad Santo Tomás, Maestría en Desarrollo Económico - London Metropolitan University. Profesor de tiempo completo del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 18 Abril 2018.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Teoría de Grafos Aplicado al Problema de la Ponderación en el Proceso de Evaluación de la Calidad de la Educación Superior
Resumen: La ponderación es una de los primeras tareas del proceso de evaluación y gestión de la calidad de la educación superior. Consiste en establecer un ordenamiento de los aspectos evaluados en función de su importancia. Dado que suelen ser bastantes, es dificil definirla y justificarla, máximo si se analiza cada aspecto de manera aislada. Si por el contrario se comprende el modelo de evaluación de la calidad como un sistema, se hace viable un alternativa en función de las interrelaciones de cada de uno de los elementos que luego se visualizan en una red, sobre la cual se establecen métricas útiles para definir la ponderación e incluso para la comprensión y gestión del mapa de procesos de la organización educativa. En esta charla se expondrán los antecedentes de este problema, el detalle del método propuesto y una aplicación usando el paquete igraph del software estadístico R.
Frederick Mendoza. Ingeniero Industrial, Magister en Ciencias Económicas-Universidad Nacional de Colombia, Doctorante en pensamiento complejo Multiversidad Mundo Real Edgar Morin. Profesor de planta, coordinador de aseguramiento de la calidad para la Facultad de Ingeniería y Ciencias Básicas del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 19 Marzo 2018.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Complexity in Artificial Neural Networks. The Back-Propagation Method
Resumen: The objective is to make an analysis of the behavior of artificial neural networks, with the backpropagation method, addressing the problem from the perspective of not discarding data, supported by the concept of complexity. When applying elements of complexity in the input data of a neural network that uses the backpropagation method, the predictive model thrown by the network improves. It can be seen how artificial neural networks and particularly the backpropagation method together with the proposed data preparation method account for the principles of complex thinking posed by Edgar Morin.
Germán Gonzalo Vargas Sánchez. Ph.D en Pensamiento Complejo, Multiversidad Mundo Real Edgar Morin México, Magister en Software Libre UNAB, Especialista en Informática y ciencias de la computación FUKL, Especialista en Ingeniería de Software U.D, Ingeniero de sistemas, Universidad Distrital F. J. C. Docente en varias universidades de Colombia Su área de trabajo se centra en temas de Inteligencia artificial, Redes Neuronales, Machine Learning y Deep Learning.
__________________________________________________________________________________________________________________
2017-2
Miércoles 4:00 pm, 29 Noviembre 2017.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Cerebro y Consciencia ¿Inteligencia Artificial?
Resumen: ¿Te has preguntado si en algún momento las máquinas podrán desarrollar conciencia de sí mismas y del entorno que las rodea? Los avances en el estudio del cerebro humano han logrado resolver grandes enigmas sobre nuestros orígenes y, a su vez, han planteado otros cuestionamientos sobre nuestro futuro. Una de esos tiene que ver con el origen de la consciencia y como esta podría generarse en seres no vivos.
A diario interactuamos con nuestros celulares, computadores o cualquier otro equipo inteligente, y nos damos cuenta de la velocidad con la que avanzan, aún no nos ha sido posible descubrir si la conciencia nos pertenece como seres vivos o si en algún momento las máquinas podrían igualar nuestra inteligencia o incluso superarnos. En esta charla se intenta aproximar al fenómeno de la consciencia en relación a la inteligencia artificial vista como la próxima frontera.
Jessica Arévalo. Psicóloga de la Institución Universitaria Politécnico Grancolombiano, Especialista en Evaluación y Diagnóstico Neuropsicológico y Magister en Neuropsicología Clínica. Su área de interés de investigación se centra en la evaluación e intervención de los procesos cognitivos con nuevas tecnologías, neurodesarrollo y aprendizaje infantil. Actualmente es Docente Tiempo Completo del Departamento de Psicología del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 22 Noviembre 2017.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Hedge Funds Managment with Liquidity Constraint
Resumen: We propose a model for a manager of a hedge fund with a liquidity constraint, where he is seeking to optimise his utility of wealth, with one and multiple period horizons. By using stochastic control techniques we state the corresponding multi-dimensional Hamilton-Jacobi- Bellman partial differential equation and we use a robust numerical approximation to obtain its unique viscosity solution. We examine the effects of the liquidity constraint on managerial trading decisions and optimal allocation, finding that the manager behaves in a less risky manner. We also calculate the cost of being at sub-optimal positions as the difference in the certainty equivalent payoff for the manager. Moreover we compare the values for the hedge fund with another one having a risky asset with a higher rate of return but less liquidity
Hugo Ramírez. PhD en Matemáticas Financieras de la Universidad de Manchester U.K, y Msc en Matemáticas de la Universidad Nacional de Colombia, Bogotá. Actualmente es Profesor Principal de Carrera de la Facultad de Economía de la Universidad del Rosario, Bogotá. Su área de trabajo se centra en temas de Finanzas Computacionales y Finanzas Cuantitativas.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 25 Octubre 2017.
Aula B-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Modelamiento numérico de fluidos turbulentos: desde los modelos DNS hasta ILES y las ventajas de la disipación numérica en la computación de alto desempeño.
Resumen: Los sistemas que involucran el estudio de fluidos turbulentos son extremadamente complejos, ejemplos de estos sistemas van desde la aerodinámica de un auto de formula 1, pasando por la predicción de tornados y huracanes hasta la dinámica de estrellas, galaxias y el mismo universo. En este seminario se presenta una breve revisión de la evolución de las técnicas numéricas que se usan para el modelamiento de fluidos turbulentos y los retos que han surgido debido en parte al fenómeno de múltiples escalas de la turbulencia. Se revisan algunos conceptos teóricos como el espectro de energía y la cascada de Richardson que supone una explicación empírica de cómo funciona la turbulencia en escalas pequeñas dentro de un fluido. Pasaremos a discutir las Direct Numerical Simulations (DNS) que tienen como objetivo capturar todas las escalas de turbulencia y veremos porque este tipo de simulaciones es extremadamente costoso en términos computacionales. Así mismos las alternativas a este tipo de modelos numéricos, entre las cuales están las Large-Eddy simulations (LES) y las Implicit Large-Eddy simulations (ILES) con sus ventajas en costo computacional relativamente menor. En particular el esquema numérico del tipo ILES el cual es usado en una investigación actual (del autor) de convección solar mediante el uso de un código que fue diseñado inicialmente para predicción del clima y que actualmente hace parte del bien establecido modelo europeo usado por el European Centre for Medium-range Weather Forecast (ECMWF)..
Francisco Camacho. Físico de la Universidad Nacional de Colombia y Magister en Física de la Universidade Federal de Minas Gerais (UFMG) de Brazil. Su área de investigación se centra en la Física computacional con énfasis en Astrofísica. Trabaja en el desarrollo de algoritmos numéricos que permitan modelar con mayor precisión y menor consumo computacional la dinámica de plasmas astrofísicos turbulentos. Actualmente es Profesor del Departamento de Ciencias Básicas del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 25 Octubre 2017.
Aula B-108, Campus Politécnico Grancolombiano, Bogotá.
Título: Técnicas de Minería de Datos y Machine Learning en la Gestión Educativa. Una Aplicación.
Resumen: Las técnicas de minería de datos y machine learning facilitan una exploración potente de grandes volúmenes de datos y la modelación de predicciones con base en datos históricos. En esta charla, se presentará una descripción de las herramientas y su aplicación en el contexto de la gestión educativa, a través de una revisión sintética de proyectos asociados a esta línea, que se han realizado en varias universidades de primer nivel en el mundo. Posteriormente, se presentarán los resultados de un aplicación derivada de un proyecto de investigación del Politécnico, en el que se caracteriza el mercado de la Educación Superior a través de un modelo de reducción de dimensiones que aplica la técnica t-SNE, combinada con un agrupamiento usando clusters k-means.
Frederick Mendoza. Profesor TC, Coordinador de Aseguramiento de la Calidad del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
__________________________________________________________________________________________________________________
2019-1
Miércoles 5:00 pm, 15 mayo 2019.
Aula H-107 Campus Politécnico Grancolombiano, Bogotá.
Título: Aplicación de un Modelo de Redes Neuronales Convolucionales para Clasificar Números Escritos a Mano.
Resumen: La Inteligencia Artificial y la Cuarta Revolución Industrial han venido popularizando diversos modelos y herramientas computacionales. Dentro de los modelos, se han clasificado algunos, como métodos de machine learning o aprendizaje automático, y dentro de estos, se encuentran técnicas conocidas como deep learning o aprendizaje profundo, estas técnicas son generados con redes neuronales artificiales, las cuales, pueden diferenciarse según su tipología, finalidad y procedimiento de compilación, entre otras. Las más conocidas son las redes neuronales clásicas, las redes neuronales convolucionales y las redes neuronales recurrentes. Las redes neuronales son compuestas por diversos niveles de jerarquía dentro de su topología. Donde, cada nivel contiene un número determinado de neuronas, entendidas en su mayoría por pendientes en una recta o compuestas por ecuaciones lineales y donde, un nivel inicial es la transformación no lineal de cada neurona generalmente ponderada. Luego, este resultado es enviado al siguiente nivel. El siguiente nivel combina la transformación no lineal de una pendiente y pasa está a un tercer nivel, y así sucesivamente. En este caso, se usarán las redes neuronales convolucionales (generalmente usadas para el reconocimiento de imágenes) para clasificar números escritos a mano y guardados como imágenes en una base de datos. Usando programación, cálculo diferencial y algebra lineal.
Sergio Alberto Mora Pardo: Profesional en Economía del Politécnico Grancolombiano. Ha sido ponente en temas de modelación estocástico en mercados financieros y modelos de lógica difusa en congresos internacionales tales como el Congreso Iberoamericano de Economía Aplicada. Es coautor de uno de los capítulos del libro MODELLING AND SIMULATION IN MANAGEMENT SCIENCE, editorial SPRINGER, titulado “Innovación Ligera en el Suministro de Energía para Zonas No Interconectadas en Colombia: Investigación Parcial vía Modelo de Efectos Olvidados”. Sus intereses se centran en en investigación cuantitativa, Econometría, Análisis Predictivo, Series de Tiempo, combinado con técnicas y algoritmos de inteligencia artificial.
__________________________________________________________________________________________________________________
Miércoles 5:00 pm, 8 mayo 2019.
Aula H-107 Campus Politécnico Grancolombiano, Bogotá.
Título: Implementación de un Modelo de Propensión de Compra en un Call Center mediante Modelos de Machine Learning.
Resumen: Los modelos de propensión de compra son muy útiles para lograr identificar los registros más propensos a comprar o adquirir cierto producto o servicio de una base de datos que puede tener información demográfica, información de consumo o de productos que tiene el cliente entre otras cosas. Los call centers que tengan campañas outbond, necesitan mucho de estos modelos ya que se dedican a las ventas de productos o servicios mediante llamadas telefónicas. Tradicionalmente, las personas dedicadas a estas campañas realizan los propensiones de compra de forma empírica, sin lograr ser muy efectivas a la hora de trabajar en producción. Herramientas del business analytics, permiten construir estos modelos de forma más adecuado, realizando modelos simples como una regresión lineal o modelos muy elaborados utilizando algoritmos de Machine Learning. En esta charla, se presentará algunas ideas de cómo a partir de la implementación de modelos de machine learning se puede incrementar las ventas en este tipo de campañas.
Alex Johann Zambrano Carbonell: Profesional en matemáticas con énfasis en Estadística de la Universidad del Tolima y Estudiante Magister en Ciencias-Estadística Universidad Nacional de Colombia. Consultor y docente Universitario en estadística aplicada, con experiencia en multivariado, segmentación de LA/FT, procesos de BPO y muestreo. Trabajo en sectores de Telecomunicaciones (Colombian Outsourcing Solutions), Investigación de mercados (Yanhass, Infométrika), empresas de sector solidario (Asoriegos), empresas estatales (INVIMA, Observatorio del Empleo y Recursos Humanos del Tolima) y Educación (Docente en el Politécnico Grancolombiano, Universidad Santo Tomás, Los Libertadores, Universidad del Tolima).
__________________________________________________________________________________________________________________
Miércoles 5:00 pm, 10 abril 2019.
Aula H-107 Campus Politécnico Grancolombiano, Bogotá.
Título: Análisis de Capacidades Académicas en el Politécinco Granclombiano con Herramientas de Minería de Texto.
Resumen: En esta charla se presentan los resultados de la comparación de contenidos de todas las asignaturas ofertadas en el Politécnico Grancolombiano, a través de un análisis de minería de texto sobre los sílabos. Esto se logró con base en la medición de distancias por medio de cuatro metodologías diferentes que luego se representan una visualización de dos dimensiones. Con esto, se puede identificar fácilmente, la similitud entre los contenidos de las asignaturas.
Con este trabajo se ilustra por qué en el portafolio de asignaturas, es probable que se tengan más cursos y denominaciones que las necesarias para cumplir con los contenidos temáticos de los programas académicos. También se demuestra que las agrupaciones de cursos por similitud trascienden la organización por escuelas.
En una segunda parte de esta charla, se ilustrará como usando una metodología similar, se analizarán -en proyecto de investigación que iniciará en el segundo semestre de este año- los perfiles de los docentes de la Institución a partir del análisis de las hojas de vida con información detallada de la productividad académica y los cursos dictados.
Así se motivará la creación de una ruta investigativa entorno a la evaluación de capacidades académicas con herramientas computacionales.
Julian Mauricio Cruz: Estadístico y Magister en Ciencias-Estadística Universidad Nacional de Colombia. Experto en estadística y minería de datos.
Frederick Andrés Mendoza: Ingeniero Industrial y Magíster en Ciencias Económicas Universidad Nacional de Colombia. Phd (c) Pensamiento Complejo MMREM (México). investigador en temas de calidad de educación superior y economía de la educación.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 27 marzo 2019.
Aula K-010(Aula informática), Campus Politécnico Grancolombiano, Bogotá.
Título: How Can we teach a machine to understand and analyze How people communicate?. Building metric spaces for Natural Language Processing of social network activity.
Resumen: In the growing and fast-changing field of machine learning, one of the most important areas of research and application is Natural Language Processing (NLP). This concerns the application of computational techniques to analyze and synthetize large volumes of written and spoken language data. Since computers are designed to work with numerical and well-structured data, the main problem with NLP is finding ways to transform natural language data (which is non-numerical and unstructured) into structured numerical data that is suitable for machine learning algorithms. In this sense, the term word embedding refers to a class of techniques that are specifically designed to perform this kind of data transformation.
In this talk we will introduce the concept of word embedding and discuss the different techniques that exists nowadays to build different kinds of word embeddings. The purpose of the talk is two folded (theoretical and practical). First, we will discuss the theoretical basis of the most prominent and widely used word embeddings followed by a presentation of some mathematical “still-open” challenges around these techniques. Then, we will have a hands-on session using some of the main libraries implemented in the python language to build a simple clustering algorithm of conversations in social networks.
Francisco Javier Camacho Rodríguez: Físico de la Universidad Nacional de Colombia (Bogota), M.Sc. en Física de la Universidad de Minas Gerais (Belo Horizonte - Brasil) con especialidad en astrofísica computacional, Google Data Engineer certificado por Google. Profesor de la la Escuela de Ciencias Básicas del Politécnico Grancolombiano. Es Data Scientist y Data engineer de Google cloud en Grupodot (LATAM Google Parner for Machine learning and analytics). Sus intereses se enfocan en métodos numéricos avanzados para la solución de sistemas de ecuaciones en derivadas parciales con aplicaciones a dinámica de fluidos y plasmas turbulentos, y por otro lado, se ha enfocado recientemente en desarrollo e investigación de productos y servicios basados en modelos de machine learning y más específicamente, deep learning.
__________________________________________________________________________________________________________________
2018-1
Miércoles 4:00 pm, 30 mayo 2018.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Optimization on Computer Vision
Resumen: In this talk I present some optimization problems on computer vision and mathematical methods for solution them. The main objective is to make visible differents perspectives in the solution of a problem and the need for a strong background in mathematics.
Diego Arévalo. Matemático y Maestría en Matemáticas de la Universidad Nacional de Colombia, Estudiante Doctorado en Matemáticas de la Universidad de los Andes .Profesor de Tiempo Completo del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 23 mayo 2018.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: PER de Shiller en el Mercado Integrado Latinoamericano MILA
Resumen: El trabajo se centra en determinar la validez de la utilización del PER de Shiller, (CAPE por sus iniciales en inglés Cyclically Adjusted Price Earnings – Ratio), en el Mercado integrado Latinoamericano (MILA) de forma particular en los países que lo conforman México, Perú, Chile y Colombia. Teniendo en cuenta aspectos fundamentales que distorsionan una presunta regresión a la media. Para lograr tal fin se tomó información sobre los mercados bursátiles de empresas representativas de estos países durante el periodo comprendido entre 2001 y 2010, con el fin de calcular el PER de Shiller, y poder realizar pruebas de estacionalidad de las series. Se determinó que dicho indicador (PER de Shiller) no tiene una reversión a la media y por ende no se asegura estabilidad en el largo plazo de la serie, es decir no se puede tomar como un predictor del comportamiento futuro del precio de las acciones en dichos países.
Ruben Amado. Economista Énfasis en Administración - Universidad Santo Tomás, Maestría en Administración de Empresas - Universidad de la Salle, Finanzas y Marketing - Universidad de la Salle México. Profesor de tiempo completo del Politécnico Grancolombiano.
Oscar Rincón. Economista - Universidad Santo Tomás, Maestría en Desarrollo Económico - London Metropolitan University. Profesor de tiempo completo del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 18 Abril 2018.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Teoría de Grafos Aplicado al Problema de la Ponderación en el Proceso de Evaluación de la Calidad de la Educación Superior
Resumen: La ponderación es una de los primeras tareas del proceso de evaluación y gestión de la calidad de la educación superior. Consiste en establecer un ordenamiento de los aspectos evaluados en función de su importancia. Dado que suelen ser bastantes, es dificil definirla y justificarla, máximo si se analiza cada aspecto de manera aislada. Si por el contrario se comprende el modelo de evaluación de la calidad como un sistema, se hace viable un alternativa en función de las interrelaciones de cada de uno de los elementos que luego se visualizan en una red, sobre la cual se establecen métricas útiles para definir la ponderación e incluso para la comprensión y gestión del mapa de procesos de la organización educativa. En esta charla se expondrán los antecedentes de este problema, el detalle del método propuesto y una aplicación usando el paquete igraph del software estadístico R.
Frederick Mendoza. Ingeniero Industrial, Magister en Ciencias Económicas-Universidad Nacional de Colombia, Doctorante en pensamiento complejo Multiversidad Mundo Real Edgar Morin. Profesor de planta, coordinador de aseguramiento de la calidad para la Facultad de Ingeniería y Ciencias Básicas del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 19 Marzo 2018.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Complexity in Artificial Neural Networks. The Back-Propagation Method
Resumen: The objective is to make an analysis of the behavior of artificial neural networks, with the backpropagation method, addressing the problem from the perspective of not discarding data, supported by the concept of complexity. When applying elements of complexity in the input data of a neural network that uses the backpropagation method, the predictive model thrown by the network improves. It can be seen how artificial neural networks and particularly the backpropagation method together with the proposed data preparation method account for the principles of complex thinking posed by Edgar Morin.
Germán Gonzalo Vargas Sánchez. Ph.D en Pensamiento Complejo, Multiversidad Mundo Real Edgar Morin México, Magister en Software Libre UNAB, Especialista en Informática y ciencias de la computación FUKL, Especialista en Ingeniería de Software U.D, Ingeniero de sistemas, Universidad Distrital F. J. C. Docente en varias universidades de Colombia Su área de trabajo se centra en temas de Inteligencia artificial, Redes Neuronales, Machine Learning y Deep Learning.
__________________________________________________________________________________________________________________
2017-2
Miércoles 4:00 pm, 29 Noviembre 2017.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Cerebro y Consciencia ¿Inteligencia Artificial?
Resumen: ¿Te has preguntado si en algún momento las máquinas podrán desarrollar conciencia de sí mismas y del entorno que las rodea? Los avances en el estudio del cerebro humano han logrado resolver grandes enigmas sobre nuestros orígenes y, a su vez, han planteado otros cuestionamientos sobre nuestro futuro. Una de esos tiene que ver con el origen de la consciencia y como esta podría generarse en seres no vivos.
A diario interactuamos con nuestros celulares, computadores o cualquier otro equipo inteligente, y nos damos cuenta de la velocidad con la que avanzan, aún no nos ha sido posible descubrir si la conciencia nos pertenece como seres vivos o si en algún momento las máquinas podrían igualar nuestra inteligencia o incluso superarnos. En esta charla se intenta aproximar al fenómeno de la consciencia en relación a la inteligencia artificial vista como la próxima frontera.
Jessica Arévalo. Psicóloga de la Institución Universitaria Politécnico Grancolombiano, Especialista en Evaluación y Diagnóstico Neuropsicológico y Magister en Neuropsicología Clínica. Su área de interés de investigación se centra en la evaluación e intervención de los procesos cognitivos con nuevas tecnologías, neurodesarrollo y aprendizaje infantil. Actualmente es Docente Tiempo Completo del Departamento de Psicología del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 22 Noviembre 2017.
Aula H-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Hedge Funds Managment with Liquidity Constraint
Resumen: We propose a model for a manager of a hedge fund with a liquidity constraint, where he is seeking to optimise his utility of wealth, with one and multiple period horizons. By using stochastic control techniques we state the corresponding multi-dimensional Hamilton-Jacobi- Bellman partial differential equation and we use a robust numerical approximation to obtain its unique viscosity solution. We examine the effects of the liquidity constraint on managerial trading decisions and optimal allocation, finding that the manager behaves in a less risky manner. We also calculate the cost of being at sub-optimal positions as the difference in the certainty equivalent payoff for the manager. Moreover we compare the values for the hedge fund with another one having a risky asset with a higher rate of return but less liquidity
Hugo Ramírez. PhD en Matemáticas Financieras de la Universidad de Manchester U.K, y Msc en Matemáticas de la Universidad Nacional de Colombia, Bogotá. Actualmente es Profesor Principal de Carrera de la Facultad de Economía de la Universidad del Rosario, Bogotá. Su área de trabajo se centra en temas de Finanzas Computacionales y Finanzas Cuantitativas.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 25 Octubre 2017.
Aula B-107, Campus Politécnico Grancolombiano, Bogotá.
Título: Modelamiento numérico de fluidos turbulentos: desde los modelos DNS hasta ILES y las ventajas de la disipación numérica en la computación de alto desempeño.
Resumen: Los sistemas que involucran el estudio de fluidos turbulentos son extremadamente complejos, ejemplos de estos sistemas van desde la aerodinámica de un auto de formula 1, pasando por la predicción de tornados y huracanes hasta la dinámica de estrellas, galaxias y el mismo universo. En este seminario se presenta una breve revisión de la evolución de las técnicas numéricas que se usan para el modelamiento de fluidos turbulentos y los retos que han surgido debido en parte al fenómeno de múltiples escalas de la turbulencia. Se revisan algunos conceptos teóricos como el espectro de energía y la cascada de Richardson que supone una explicación empírica de cómo funciona la turbulencia en escalas pequeñas dentro de un fluido. Pasaremos a discutir las Direct Numerical Simulations (DNS) que tienen como objetivo capturar todas las escalas de turbulencia y veremos porque este tipo de simulaciones es extremadamente costoso en términos computacionales. Así mismos las alternativas a este tipo de modelos numéricos, entre las cuales están las Large-Eddy simulations (LES) y las Implicit Large-Eddy simulations (ILES) con sus ventajas en costo computacional relativamente menor. En particular el esquema numérico del tipo ILES el cual es usado en una investigación actual (del autor) de convección solar mediante el uso de un código que fue diseñado inicialmente para predicción del clima y que actualmente hace parte del bien establecido modelo europeo usado por el European Centre for Medium-range Weather Forecast (ECMWF)..
Francisco Camacho. Físico de la Universidad Nacional de Colombia y Magister en Física de la Universidade Federal de Minas Gerais (UFMG) de Brazil. Su área de investigación se centra en la Física computacional con énfasis en Astrofísica. Trabaja en el desarrollo de algoritmos numéricos que permitan modelar con mayor precisión y menor consumo computacional la dinámica de plasmas astrofísicos turbulentos. Actualmente es Profesor del Departamento de Ciencias Básicas del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
Miércoles 4:00 pm, 25 Octubre 2017.
Aula B-108, Campus Politécnico Grancolombiano, Bogotá.
Título: Técnicas de Minería de Datos y Machine Learning en la Gestión Educativa. Una Aplicación.
Resumen: Las técnicas de minería de datos y machine learning facilitan una exploración potente de grandes volúmenes de datos y la modelación de predicciones con base en datos históricos. En esta charla, se presentará una descripción de las herramientas y su aplicación en el contexto de la gestión educativa, a través de una revisión sintética de proyectos asociados a esta línea, que se han realizado en varias universidades de primer nivel en el mundo. Posteriormente, se presentarán los resultados de un aplicación derivada de un proyecto de investigación del Politécnico, en el que se caracteriza el mercado de la Educación Superior a través de un modelo de reducción de dimensiones que aplica la técnica t-SNE, combinada con un agrupamiento usando clusters k-means.
Frederick Mendoza. Profesor TC, Coordinador de Aseguramiento de la Calidad del Politécnico Grancolombiano.
__________________________________________________________________________________________________________________
2016-2
Miércoles 5:00 pm, 9 Noviembre , 2016.
Aula B-108, Campus Politécnico Grancolombiano, Bogotá.
Título: Creación de un índice de actitud hacia la Estadística.
Resumen: En este trabajo se presenta la construcción de un índice que permite evaluar las actitudes hacia la estadística para estudiantes de una universidad utilizando técnicas estadísticas multivariadas. Se construye un instrumento que consta de 41 preguntas de las cuales 25 fueron sacadas del instrumento de Auzmendi (1992) y el restante fueron preguntas de tipo personal tales como el sexo, la edad, estrato, etc. Preguntas académicas relacionadas como semestre que está cursando, facultad a la que pertenece, etc. Y por último preguntas acerca de la Estadística como materia de Estadística que está viendo, cursos adicionales que esté cursando en relación a la Estadística, etc. Partiendo de la información se hace un análisis descriptivo y multivariado que permite caracterizar las variables y construir un índice de actitud hacia la Estadística. Al final se contrasta el índice con la nota final obtenida del estudiante.
Alex Zambrano. Profesor del Departamento de Ciencias Básicas del Politécnico Grancolombiano.
_____________________________________________________________________________________________________________________
Miércoles 6:00 pm, 28 Septiembre , 2016.
Aula B-108, Campus Politécnico Grancolombiano, Bogotá.
Título: Máquinas de Soporte Vectorial- Support Vectorial Machines- y su Aplicación en la Clasificación por Morosidad de Créditos de Libranza.
Resumen: Las máquinas de soporte vectorial(Support Vectorial Machines SVMs) son un método de clasificación supervisada de alto desempeño para problemas de tipo binario. En la presente charla se explorar su aplicabilidad para problemas del sector financiero, particularmente la clasificación por morosidad de créditos de libranza. Se abordará desde la determinación de parámetros de entrada hasta su implementación en el software estadístico "R"..
Sebastián Moreno. Profesor del Departamento de Ciencias Básicas del Politécnico Grancolombiano.
_____________________________________________________________________________________________________________________
Miércoles, 14 Septiembre , 2016.
Aula B-108, Campus Politécnico Grancolombiano, Bogotá.
Título: Cálculo Exterior Discreto: Un marco teórico para problemas de simulación computacional y análisis geométrico desde lo discreto.
Resumen: La simulación computacional es uno de los campos de investigación en auge en el siglo XXI. Esta disciplina ha crecido desde diferentes ópticas combinando elementos avanzados de matemáticas con construcciones computacionales que resultan en problemas difíciles de abordar tanto desde lo teórico como desde lo práctico. El Cálculo Exterior Discreto surge como una alternativa para el tratamiento holístico de problemas en Simulación y Análisis Geométrico sobre geometrías complejas, que a partir de elementos teóricos sencillos compone una nueva mirada sobre el cálculo, que combina lo topológico y lo geométrico de forma tal que abre una puerta al tratamiento de problemas en ecuaciones diferenciales y geometría diferencial desde lo puramente topológico, reduciendo la brecha entre lo teórico y lo práctico de manera significativa.
Camilo Rey. Matemático de la Universidad de los Andes y Magíster en Ingeniería de Sistemas y Computación de la Pontificia Universidad Javeriana. Profesor del Departamento de Ciencias Básicas del Politécnico Grancolombiano.