Las Jornadas de Ciencias de la Computación (JCC) se presentan como una iniciativa del Departamento de Ciencias de la Computación de la Facultad de Ciencias Exactas, Ingeniería y Agrimensura de la Universidad Nacional de Rosario, de carácter abierto y gratuito con el objetivo de promover el contacto de los alumnos de la Facultad con investigadores y profesionales en temas relacionados con el ámbito de las ciencias de la computación, al mismo tiempo que nos permite mantenernos actualizados sobre las tendencias en investigación y desarrollo que se realizan en la región.
La edición 2019 de las JCC se llevará a cabo los días 23, 24 y 25 de Octubre en la Facultad de Ciencias Exactas, Ingeniería y Agrimensura de Rosario.
Las JCC se llevaron a cabo por primera vez en noviembre del año 2000. Año tras año han participado decenas de personas provenientes de empresas de desarrollo de software local, estudiantes e investigadores de esta casa de estudios y de universidades destacadas de la zona, entre las cuales podemos mencionar a la Universidad Nacional de La Plata, Universidad Nacional de Córdoba, Universidad Nacional de Río Cuarto y la Universidad de la República (Montevideo-Uruguay). La realización de las JCC es un proceso que continúa año a año y constituye un logro significativo del cuerpo de docentes y de estudiantes de la carrera Licenciatura en Ciencias de la Computación.
Se puede obtener un certificado de asistencia a las jornadas de forma gratuita y opcional acá.
- Miércoles: Lab primer piso, 8:30 a 10:30 - Aula 24, 10:30 a 12:30
- Jueves: Lab primer piso
- Viernes: Lab Básicas
por Fernando Fiori, Brian Morris, Maximiliano Regidonda (FCEIA)
Se toman algunas historias cortas y breves de Ciencias de la Computación y se las discuten. Estas historias no tienen conexión entre sí, por lo general, y se garantiza que nadie de los asistentes quedará conforme.
por Raúl Kantor, Guido Macchi (FCEIA)
por Bruno Ruyú (San Cristobal)
Los Sistemas de Aplicación Dinámicos Guiados por Datos (DDDAS, Dynamic Data-Driven Application Systems) tratan de aprovechar al máximo la unión de los métodos de adquisición de datos, la computación y la simulación en el desarrollo de sistemas complejos que pueden ser utilizados para dar respuesta en sistemas de tiempo real con requerimientos de computación urgente, i.e., aplicaciones donde el procesamiento de datos sólo tiene validez si puede llevarse a cabo dentro de una ventana temporal bastante angosta. La creación de un DDDAS requiere la comprensión sobre el uso de sensores remotos, diferentes niveles de computación tanto a como el de un procesador embebido como el de una supercomputadora, redes, seguridad de datos, modelado matemático y computacional, problemas inversos, teoría de control y visualización. Las DDDAS implica la capacidad de incorporar dinámicamente datos adicionales en una aplicación en ejecución permitiendo mejorar el modelado de sistemas en condiciones dinámicas.
Dado esto tienen gran aceptación en los sistemas de predicción de fenómenos naturales como es el caso de los incendios forestales.
Entonces la idea es comentar las características de un DDDAS, el cual incorpora Computación de Alto Rendimiento (HPC), Análisis Estadístico, Metaheurísticas, Redes de Sensores Inalámbricos (WSNs) e Información Satelital utilizado como sistema de alerta temprana y de predicción del comportamiento de incendios forestales.
por Miguel Méndez Garabetti (UAA - UM)
La Bioinformática acompaña las actividades de investigación antes, durante y después de la experimentación. Más aún, numerosas bases de datos y recursos In Silico, sumados a la gran disponibilidad y continua generación de nueva información molecular, resultan incluso importantes generadores de hipótesis para las investigaciones. Por eso, la Bioinformática y disciplinas asociadas impactan cada vez más en el desarrollo científico.
Desde que comencé a formar parte de una línea de investigación, fueron necesarias aplicaciones bioinformáticas, para enfoques centrados en genes específicos o para estudios masivos. Independientemente del sistema biológico, prevalecen en mi trabajo el manejo de grandes cantidades de datos y secuencias, y el análisis de patrones lineales, como elementos en cis de las moléculas estudiadas que indican funciones biológicas. Destaco dos ejemplos: la creación de FruitGeneDB (una base de datos con información genómica, funcional y de expresión de genes importantes en la poscosecha de frutas), sumada al análisis del motivos en promotores de genes sensibles a tratamiento térmico; la identificación de mutaciones reportadas, capaces de afectar la formación de estructuras G-quadruplex en genoma humano; hoy experimentalmente verificadas. Los ejemplos mencionados apoyan la aplicación de enfoques in Silico para identificar moléculas con rasgos de interés a comprobarse experimentalmente.
Por otro lado, invitan a conocer los alcances de la Bioinformática, generar equipos interdisciplinarios y principalmente a formular nuevas preguntas y darle respuesta a las mismas.
En conclusión, el rol de la Bioinformática hoy en día trascendió de complementar la investigación a permitir el inicio de nuevos proyectos, generando nuevos interrogantes y a la vez enfoques para darle respuesta, y sugiriendo la importancia de los equipos interdisciplinarios.
por Mauro Gismondi (CONICET)
El mundo es muy complejo y hoy en día se trata no solamente de pensar individualmente; lo entenderemos mejor si tenemos en cuenta que existen otros individuos con distintos objetivos... Eso podrá ayudar no sólo a los otros sino también a nosotros mismos.
En esta charla, de carácter introductorio, vamos a recorrer algunas de las múltiples facetas que tiene en la actualidad la teoría de juegos, una disciplina que estudia distintos aspectos de problemas de decisión en los que hay múltiples participantes con objetivos interrelacionados y que intentan maximizar sus ganancias. Problemas como el dilema del prisionero, el piedra papel o tijera, y las situaciones de negociación y regateo, aparecen en las relaciones sociales y de trabajo, la interacción con los semejantes, el estudio, la economía... Hasta para decidir cuándo vamos de compras o adónde se va de vacaciones. Hablaremos sobre juegos (abstractos y concretos, conocidos y no tanto), estrategias y los tan buscados equilibrios de Nash; desde su significado filosófico hasta cómo calcularlos, sus aplicaciones y eventuales inconvenientes. Y sobre las tremendas paradojas que surgen ante la idea del conocimiento perfecto.
La teoría de juegos enseña al "homo ludens", entre otras cosas, a no subestimar. Por último, mencionaremos trabajo reciente en el área.
por Ariel Arbiser (UBA)
En el CIFASIS, un instituto de CONICET y la UNR donde se investiga en temas relacionados a la informática, se está desarrollando un prototipo de robot desmalezador. En esta charla vamos a hablar sobre este proyecto, sobre los distintos problemas particulares que involucra y sobre cómo estos problemas se enmarcan en las distintas disciplinas más generales en las que investigan los distintos grupos del CIFASIS.
También discutiremos sobre distintas posibilidades para la realización de Pasantías, Tesinas y Tesis Doctorales en el instituto.
por Ernesto Kaufman (CIFASIS - CONICET)
Introducción a las principales características de las Apis desarrolladas por Microsoft que permiten que, mediante el uso de inteligencia artificial, nuestros sistemas puedan ver, oír, hablar y comprender necesidades de los usuarios a través del uso del lenguaje natural.
Durante la charla abordaremos temas técnicos sobre su funcionamiento como así también diversos usos y aplicaciones para finalizar con algunos ejemplos prácticos y demostraciones en tiempo real.
por Máximo García, Juan Andrés Absi (Endava)
El objetivo de la charla será la difusión del arte digital y todas sus bondades. Partiendo desde la conceptualización artística se abordarán cuestiones técnicas de interés aprovechando el perfil de los participantes. Sobre la parte visual, se comentará ArtificiaLines, una serie de obras producidas con un brazo robótico (tipo AxiDraw), procesando imágenes con diferentes algoritmos programados en Python y Processing. Para la parte sonora/musical hablaremos de Livecoding (generación de sonido o música mediante líneas de código) y montaremos una demo en vivo. Para difundir la movida y la comunidad, se convocará a artistas locales (de Rosario) a confirmar y se abrirá el espacio para preguntas e discusión sobre ideas de proyectos.
por Xavier Gonzalez (UBA)
Se presenta una técnica del área de métodos formales basada en la programación con tipos dependientes y su uso para demostrar que ciertas propiedades de seguridad se preservan respecto de determinadas transformaciones de programas. Es decir, si se tiene un programa P en un lenguaje fuente, donde una propiedad de seguridad es válida, y se lo transforma a un programa P' (por ejemplo, mediante un compilador) en un lenguaje objeto, entonces la propiedad debe ser cierta para P'.
El contexto del trabajo es el de programación con tipos dependientes usando Agda como lenguaje de formalización.
Ésta elección está basada en que Agda cuenta con un poderoso sistema de tipos que posibilitó la codificación de invariantes de los lenguajes objetos en los tipos de los mismos, de manera que la verificación de la preservación de la propiedad de seguridad por la transformación se redujo a un chequeo de tipos.
por Cecilia Manzino (FCEIA - UNR)
Construimos una variante de tipo "Lógica Default" a partir de la Lógica Intuicionista, y desarrollamos un cálculo de tableaux correcto, completo y finito para ello. Implementamos ese cálculo e ilustramos los elementos técnicos de nuestro trabajo con algunos ejemplos.
por Guillaume Hoffmann (UNC)
Mostraremos cómo integrar bases de datos relacionales con base de datos no relacionales para maximizar la experiencia del usuario realizando búsquedas inteligentes.
por Franco Moreno (NeuralSoft)
Encontrar formas adecuadas de manejar datos personales para estar en conformidad con la ley es un desafío. El nuevo “Reglamento general sobre la protección de datos” (GDPR) de la Unión Europea, obliga a ciudadanos y empresas que cumplan con los requisitos de privacidad establecidos en él mismo. Para sistemas de software existentes el reto es poder mostrar evidencia de que ya están cumpliendo con el GDPR, o de lo contrario trabajar hacia el cumplimiento modificando sus sistemas y procedimientos reprogramando sus sistemas para pasar los eventuales controles. Para aquellos que comienzan nuevos proyectos el consejo es tomar privacidad en consideración desde el principio del desarrollo, esto es durante el diseño. Esto es conocido como "Privacy by Design” (PbD). Una pregunta fundamental es ¿Cuánta privacidad puede lograrse efectivamente usando PbD?, y en particular si es posible lograr privacidad "por construcción". En la primera parte de esta charla daré mi opinión personal sobre el tema.
Uno de los principios establecidos en el GDPR es el llamado “Data Minimization Principle" (principio de la minimización de datos) el cual requiere que no se requiera del usuario más información de la que es estrictamente necesaria para el propósito específico los datos son requeridos. En la segunda parte de esta charla presentaré una definición basada en lenguajes sobre este principio y discutiré soluciones y problemas en la verificación de programas con respecto a este principio.
por Gerardo Schneider (Chalmers University of Technology)
Differential privacy offers a formal framework for reasoning about privacy and accuracy of computations on private data. It also offers a rich set of building blocks for constructing data analyses. When carefully calibrated, these analyses simultaneously guarantee privacy of the individuals contributing their data and accuracy of their results for inferring useful properties about the population. One important building block for differential privacy are composition theorems, which allow multiple differentially private data analyses to be composed together with a graceful degradation of the privacy and accuracy parameters. The compositional nature of differential privacy has motivated the design and implementation of several programming languages aimed at helping a data analyst in programming differentially private data analyses. However, most of the programming languages for differential privacy proposed so far provide support for reasoning about privacy but not for reasoning about accuracy of data analyses. To overcome this limitation, in this work we present DPella, a programming framework providing data analysts with support for reasoning about privacy, accuracy and their trade-offs. DPella is implemented as a domain specific language in the functional programming language Haskell. The distinguished feature of DPella is a novel component which statically tracks the accuracy of different data analyses. In order to make tighter accuracy estimations, this component leverages information-flow control techniques, in the form of taint analysis, for automatically inferring statistical independence of the different noise quantities added for guaranteeing privacy. We show the flexibility of our approach by implementing classical counting queries (e.g., CDFs) found in the literature and how DPella exposes the trade-offs between privacy and accuracy. Furthermore, we use DPella to analyze hierarchical counting queries (like those done by Census Bureaus), where accuracy have different constraints per level and data analysts should figure out the best manner to trade-off privacy to meet the accuracy requirements.
por Alejandro Russo (Chalmers University of Technology)
Basta preguntar a estudiantes, docentes e investigadores qué es la ciencia de la computación (un simple pregunta pero bastante difícil de responder) y tendremos múltiples posturas, algunas contradictorias entre si. La charla plantearía los aspectos epistémicos, ontológicos y metodológicos de las Ciencias de la Computación. Se presentarán los interrogantes que desde la filosofía de la ciencia se dan sobre las ciencias de la computación. ¿Cual es el status científico de la computación? ¿Que es la ciencia?¿Que es la tecnología? Ciencia natural, matemática y tecnología. ¿Que pensamos de la famosa frase de Dijkstra: "computer science is not about machines, in the same way that astronomy is not about telescopes"?. ¿Cómo se relaciona la teoría, el diseño y la abstracción?. Los paradigmas racionalista, tecnológico y científico.
por Gerardo Rossel (UBA)
Con la misma energía, y del mismo modo que los años anteriores, nos presentamos a la JCC para mostrarles parte del trabajo que realizamos docentes y alumnos de la cátedra Programación I, materia correspondiente al primer año de la Licenciatura en Ciencias de la Computación.
Este año la propuesta que expondremos es el: "Diseño de Animaciones Mediante Fotogramas" empleando el lenguaje de programación Racket. Una animación por fotogramas, se asocia al movimiento simulado mediante una secuencia de imágenes mostradas en una fracción de segundo, generando de este modo ante el ojo humano, la ilusión de movimiento. Si! hicimos esto en Racket!. De forma grupal, los estudiantes presentarán sus programas, a ¡código abierto!, contando mediante sus infografías cómo diseñaron cada uno de sus imágenes y/o ideas de fotogramas para producir la animación cuadro por cuadro.
Bajo la consigna de ¡Aprender a Programar Programando! los trabajos que expondremos muestran cómo los estudiantes de formar grupal y con el seguimiento docente durante todo el desarrollo del proyecto, lograron incorporar conceptos básicos de programación, como la definición de funciones simples, parametrización, composición de funciones, modularización, abstracción, junto con la construcción y el diseño formal de programas , de una forma original y entretenida.
Los esperamos en el Coffe-Racket-Break para charlar de programación. Este año también sumamos una serie de juegos para que nos cuenten sus experiencias en este apasionante mundo! Repetimos, debido al éxito de la presentación pasada, los Racket-Sweets para compartir charla por medio.
por Natalia Colussi, Laura Pomponio, Pamela Viale (FCEIA)
Avanzar hacia el concepto de Industria 4.0 o manufactura inteligente, aún en países desarrollados, no es simple. Conlleva mucho más que adoptar e incorporar una serie de tecnologías, protocolos y herramientas de ciencias de computación novedosas. En nuestro país, cuyo nivel de informatización industrial es en general muy bajo, el camino hacia una Industria 4.0 es aún mucho más difícil. No obstante, ese camino debe recorrerse y todos debemos aportar a la minimización de los obstáculos. En este seminario se revisa la noción de Industria 4.0 desde una perspectiva holística, discutiendo los retos y tendencias asociados a su adopción. También se presenta cuál es, en términos generales, el nivel de apropiación de tecnología de la industria local y se proponen líneas de acción a seguir a efectos de lograr la transformación de una industria 2.0 en una 4.0.
por Gabriela Henning (UNL-CONICET)
↓ Hora Día → | Miércoles | Jueves | Viernes |
19:00 - 20:00 | Happy hour | ||
21:00 - 22:00 | Mini torneo de fútbol | ||
22:00 - 23:00 | |||
23:00 - ∞ |