Keynotes

Arica – La Paz Railway

Desarrollando en I+D

Héctor Vergara, Telefónica Chile Senior Developer
 
Charla experiencial sobre el rol del desarrollador de software en un Centro de I+D y los desafíos de participar en proyectos de innovación con potencial de impacto mundial
 

Big Data desde el terminal de Linux

Nicolás Kittsteiner, Telefónica Chile Senior Developer
 
Usando comandos básicos de Linux se mostrará cómo procesar información ‘grande’ usando comandos y pipes, a su vez de explicar sus pros y contras
 

ACM / IEEE-CS Computing Curricula 2020

Ph. D. Ernesto Cuadros Vargas, Profesor del departamento de Ciencia de la Computación, Universidad San Pablo Arequipa Perú
 
Cada año se invita a un equipo internacional a actualizar los contenidos recomendados para carreras de pregrado en el área de Computación. El equipo más reciente es el CC2020 que inició el trabajo en agosto de 2016
 
Una característica importante de la propuesta es que tiene un foco muy internacional pues tiene miembros de varios países como: China, Japón, Nueva Zelanda, Estados Unidos, Perú, Rusia, Israel, África del Sur, Suecia, Portugal, Australia, Holanda, India, Portugal
 
En esta conferencia presentaremos los objetivos de esta propuesta, las tendencias y algunos puntos que podríamos mejorar en América del Sur para acelerar nuestro crecimiento en esta área
 

Hacia una composición de servicios por y para usuarios finales

Ph. D. Pedro Valderas , Departamento de Sistemas Informáticos y Computación de la Universidad Politécnica de Valencia
 
En un mundo abierto, cada vez más dinámico, inteligente y descentralizado, las tecnologías y aplicaciones evolucionan hacia la creación de ecosistemas que proporcionan a los usuarios finales una gran variedad de servicios heterogéneos y distribuidos, accesibles en cualquier momento y en cualquier lugar. Aunque estos servicios pueden ser consumidos individualmente, es su uso compuesto lo que permite crear nuevos servicios de valor añadido para los usuarios finales. Por otro lado, teniendo en cuenta que los usuarios finales desempeñan un papel cada vez más importante en el desarrollo de contenido, debido, sobre todo, a la amplia adopción de dispositivos móviles, tiene sentido pensar en la posibilidad de permitirles crear sus propias composiciones de servicios mediante estos dispositivos. El principal objetivo es que los usuarios finales no sean meros consumidores de servicios, y convertirlos en prosumers (de la combinación inglesa provider+consumer), involucrándolos en el proceso de creación de servicios. Con ello, tanto los consumidores de servicios como los proveedores pueden beneficiarse de una distribución de servicio mejor, más barato y rápido. En esta charla presentaré nuestros últimos avances en la concepción de una plataforma de usuario final que permite a éstos la creación de composiciones de servicios ejecutables, independientemente de la naturaleza tecnológica de los servicios, y mediante el uso de dispositivos móviles. Estudiaremos las principales soluciones para proporcionar a los usuarios finales una herramienta de este tipo, así como las posibilidades existentes para desplegar estas descripciones en entornos ejecutables reales
 

Business intelligence and big data: Background and case studies

Ph. D. Víctor Leiva, Escuela de Ingeniería Industrial, Pontificia Universidad Católica de Valparaíso, Chile
 
Big data son activos de información caracterizados por un alto volumen, velocidad y variedad, exigiendo soluciones innovadoras y eficientes en el proceso de mejora de conocimiento para tomar decisiones en organizaciones. Big data proporciona alta tecnología (hardware y software) para almacenar, procesar y analizar grandes (big) cantidades de datos (giga, tera, peta, exa, zetta y yottabyte), generando valor en una organización. Business intelligence es un conjunto de técnicas y herramientas vinculadas a data mining y estadística, que se utilizan para transformar datos (usualmente big data) en información. Luego, la información se transforma en conocimiento, proceso conocido como KDD (descubrimiento de conocimiento en bases de datos), optimizando la toma de decisiones en los negocios. Data mining es un proceso no trivial de reconocimiento válido, innovador y comprensible de patrones que están ocultos en los datos (o data warehouse). Algunos métodos de data mining y de estadística nos permiten (i) clasificar y agrupar (mediante análisis discriminante/cluster, CHAID y machine learning), (ii) modelar (mediante regresión, GLIM, modelos mixtos, ANOVA, series de tiempo y GAMLSS); y (iii) reducir dimensionalidad (mediante análisis de correspondencia/factores y escalamiento multidimensional). En esta charla, proporcionamos un background sobre business intelligence y big data. Además, discutimos algunos estudios de casos del mundo real basados en business intelligence con la ayuda del software estadístico R
 

Hogar inteligente para mejorar la calidad de vida del adulto mayor

Ph. D. Carla Taramasco es investigadora y profesora de la Escuela de Ingeniería Civil Informática de la Universidad de Valparaíso (UV)
 
El concepto de Internet de las cosas (IoT) fue propuesto por Kevin Ashton, cofundador de Auto-ID Center en el MIT en el año 1999. IoT hace referencia a los dispositivos físicos embebidos que cuentan con conexión a Internet, electrónica, software, sensores, actuadores y redes. Esto puede se usado en muchos diferentes sistemas como ciudades inteligentes, e-salud, e-comercio, transporte inteligente, entre otros. La arquitectura de IoT se incorpora con las últimas tecnologías de protocolos de comunicación, sensores inteligentes y RFID (Radio Frequency IDentification)
 
El área de la salud es la que más rápido ha ido adoptando IoT, ya que la integración de estas características en los dispositivos médicos mejora en gran medida la calidad y eficacia del servicio, aportando un valor especialmente alto para los adultos mayores, los pacientes con enfermedades crónicas y los que requieren supervisión constante. Las mayores ventajas de IoT aplicada a salud es el monitoreo de pacientes en tiempo real reduciendo costos médicos (visitas, hospitalizaciones, etc.), acceso a información en tiempo real que ayuda a tomar decisiones informadas, mejora la experiencia del paciente, la intervención oportuna por los médicos, el cuidado responsable altamente confiable, entre muchas más ventajas
 

Astroinformática en Chile: desde el almacenamiento hasta el procesamiento de Big Data

Dr. Mauricio Solar Ingeniero Electrónico, M.Sc y Ph.D. en Ingeniería en Computación y Sistemas con Postdoctorado en la Universidad de Montreal
 
En esta charla se muestran los principales desafíos a los que se enfrenta la astronomía moderna en relación a la gestión de datos capturados por los observatorios y su procesamiento. Se presentan definiciones de conceptos básicos en el ámbito de la astroinformática. Se mostrará la investigación realizada sobre métodos computacionales en astronomía por el Observatorio Virtual Chileno (ChiVO) que condujo al desarrollo de prototipos funcionales, implementando métodos computacionales de última generación y proponiendo nuevos algoritmos y técnicas para procesar grandes volúmenes de datos. La arquitectura de software de ChiVO se basa en el uso de protocolos y estándares de IVOA (International Virtual Observatory Alliance) de la cual ChiVO es miembro. Estos protocolos y estándares se agrupan en capas, y se presentarán en esta charla con énfasis en las capas de aplicación y datos, ya que sus estándares básicos definen una operación mínima que debe disponer un OV
 
Actualmente ChiVO tiene almacenado un set de datos del orden de 100 TB, que corresponden a los datos públicos de ALMA desde el ciclo 0 al ciclo 3 (ciclo 0 – 4.62 TB, ciclo 1 – 20.11 TB, ciclo 2 – 23.06 TB, y ciclo 3 – 59.18 TB). Inicialmente nos centramos principalmente en los cubos de datos espectroscópicos (archivos FITS) procedentes del ciclo 0 de los datos públicos de ALMA. En la medida que el tamaño del set de datos aumenta mes a mes con la incorporación de los datos públicos del ciclo 1 de ALMA, el procesamiento de estos datos se empieza a convertir en un gran cuello de botella para la investigación científica en astronomía. Se muestra entonces el diseño de ChiVO, en donde se enfoca el mejorar los costos de computación y de E/S con una infraestructura e-cloud que estamos desarrollando basada en la nube para los servicios de ChiVO, como también se muestra la tecnología que estamos actualmente utilizando para paralelizar los nuevos algoritmos y técnicas con herramientas HPC para acelerar el procesamiento de grandes volúmenes de datos. Por último, se muestran resultados en términos de tamaño de datos, distribución de datos, número de núcleos y tiempo de respuesta, para comparar diferentes configuraciones de procesamiento y almacenamiento de datos
 

REUNA, eje de conectividad digital y articulación del ecosistema de Investigación, Educación e Innovación

Sandra Jaque, Gerente de Tecnologia REUNA
 
Ingeniero Civil Electrónica, Universidad de Concepción, con más de 20 años de trayectoria en el área de Tecnologías de Redes, ha liderado diversos proyectos de infraestructura TIC, entre ellos, desarrollo de la Troncal Académica Chilena y redes relacionadas en diversos ámbitos académico/científicos como Astronomía, HPC, Grid, entre otros
 

Ingeniería y Ciencias 2030: Desde la Invención hacia la Innovación

Juan Velásquez, Profesor Titular de la Universidad de Chile
 
Juan D. Velásquez posee los títulos Ingeniero Civil Electricista e Ingeniero Civil en Computación, y los grados de Magíster en Computación, Magíster en Ingeniería Industrial, Magíster en Derecho Informático, por la Universidad de Chile. Es Doctor en Ingeniería de la Información, Universidad de Tokio, Japón; Pos Doctoral Fellow del Computing Laboratory, Universidad de Oxford, Reino Unido. Ha sido profesor visitante del Center for Colaborative Research de la U. de Tokio y de la Facultad de Ingeniería de la VSB Ostrava University, República Checa. Ha escrito más de 150 artículos científicos y cuatro libros. Ha sido director de más de 20 proyectos Innova Corfo, Fondef y Fondecyt. El año 2009 recibió desde la UNESCO la medalla “thinking and building peace” y el 2010 la distinción Mejor Docente de Pregrado de la U. de Chile. Su área de investigación es el Data Science, Big Data y Health Engineering
 

Interface Humano Máquina para el Control Mioeléctrico de una Prótesis de Mano Robótica

Dr. César Quinayás, Ingeniero Físico
 
En este trabajo se presenta el desarrollo de una interface humano máquina (HMI) que permite la detección de intención de movimiento para el control del prototipo de mano robótica UC2 a través de señales mioeléctricas captadas del antebrazo de una persona sana. La HMI utiliza características temporales y una red neuronal multicapa como clasificador que permite detectar las primitivas de agarre: mano en reposo, abrir mano, cerrar mano, y de una aplicación móvil que permite configurar la mano robótica a diferentes posturas de agarre. El control motor de la mano robótica corresponde a controladores PID de posición para el seguimiento de trayectoria en la fase de preshaping y controladores PI de fuerza en la fase de agarre que se encuentran embebidos en un dspic30f6012a. Se presentan resultados de detección de intención de movimiento para el control de la prótesis de mano UC2, al realizar pruebas en tres sujetos sin amputación. Los resultados experimentales muestran que el sistema puede ser aplicado en el control de prótesis de mano
 

Programación probabilística: presente y futuro

Dr. Federico Olmedo, Doctor en Ciencias de la Computación, Universidad Politécnica de Madrid, España
 
La programación probabilística es uno de los campos de las ciencias de la computación que más interés ha despertado en los últimos años. Parte de este creciente interés reside en las bondades que los programas probabilísticos presentan para representar y razonar sobre modelos probabilísticos en comparación con formalismos más tradicionales como son las redes Bayesianas
 
En esta charla haremos una breve introducción a la programación probabilística ilustrando con diferentes ejemplos los beneficios que la misma aporta a diferentes comunidades y discutiremos luego algunos de los principales desafíos que presenta a corto y mediano plazo
 

Computación de Alto Rendimiento: ¿Qué es y qué se hace en Chile?

PhD Ginés D. Guerrero, Executive Director National Laboratory for High Performance Computing
 
La computación de alto rendimiento (o HPC por sus siglas en inglés) es una valiosa herramienta que puede y debe de ser empleada para realizar muy diversas simulaciones. Durante esta charla se explicará en que consiste el HPC y el porqué de su importancia. Además, se presentará el Laboratorio Nacional de Computación de Alto Rendimiento (NLHPC), mencionando su misión, objetivos y lo que ofrece de manera gratuita a la comunidad científica chilena. En este punto se presentará nuestro supercomputador Leftraru, el más potente de Chile
 

Computación Distribuida como Apoyo a la Gestión de Emergencias y Víctimas

Dr. Mauricio Marín, Departamento de Ingeniería Informática Universidad de Santiago
 
Se describe el diseño de una plataforma de software con propiedades que la hacen pertinente para entregar servicios de computación distribuida a aplicaciones de apoyo a la gestión de emergencias y víctimas en desastres de origen natural que involucran grandes cantidades de personas, proporcionando un entorno transparente y sustentable para desarrolladores de aplicaciones
 
La plataforma está pensada para proporcionar un modelo de programación de aplicaciones que sea fácil de utilizar y tenga herramientas de apoyo al desarrollo de software en este tipo de entornos. La plataforma asegura de manera transparente propiedades que la hacen (1) elástica en el sentido de requerir y liberar recursos computacionales de acuerdo a la demanda de cargas de trabajo, (2) eficiente en procesamiento paralelo de datos, (3) escalable a nivel nacional con despliegue en distintos centros de datos distribuidos geográficamente, (4) movible respecto de migrar de manera transparente a las aplicaciones en ejecución a distintos centros de datos, (5) robusta respecto de permitir fallas de procesadores dentro de centros de datos y entre centros de datos, (6) ser multi-entorno en el sentido de extender sus servicios a teléfonos móviles inteligentes, (7) pertinente para procesar múltiples aplicaciones concurrentes otorgando priorización en uso de recursos, y (8) poseer un conjunto de herramientas que faciliten el desarrollo de aplicaciones pertinentes para los requerimientos de emergencias
 
Para demostrar la utilidad de la plataforma, se ha construido un conjunto de aplicaciones de apoyo a la gestión de desastres de origen natural que pueden ser de interés para instituciones del área, y que permitan hacer pruebas de rendimiento y pertinencia a nivel nacional. Con esto también se realizará la difusión de los servicios de la plataforma entre los desarrolladores de aplicación e instituciones. Se pretende poner la plataforma a disposición de la comunidad como un bien público con códigos fuentes con licencia de software de dominio público
 
Este esfuerzo ha sido financiado por el proyecto “Plataforma de Apoyo a la Gestión de Emergencia y Aplicaciones”, FONDEF IDeA (Dos Etapas), código ID15I10560, Diciembre 2015 – Noviembre 2017