Las Jornadas de Ciencias de la Computación (JCC) se presentan como una iniciativa del Departamento de Ciencias de la Computación de la Facultad de Ciencias Exactas, Ingeniería y Agrimensura de la Universidad Nacional de Rosario, de carácter abierto y gratuito con el objetivo de promover el contacto de los alumnos de la Facultad con investigadores y profesionales en temas relacionados con el ámbito de las ciencias de la computación, al mismo tiempo que nos permite mantenernos actualizados sobre las tendencias en investigación y desarrollo que se realizan en la región.
Las JCC se llevaron a cabo por primera vez en noviembre del año 2000. Desde esa fecha, se han realizado jornadas durante los años 2002, 2004, 2005, 2006, 2007, 2008, 2009 y 2010. En la exposiciones de todas estas jornadas han participado decenas de personas provenientes de empresas de desarrollo de software local, estudiantes e investigadores de esta casa de estudios y de universidades destacadas de la zona, entre las cuales podemos mencionar a la Universidad Nacional de La Plata, Universidad Nacional de Córdoba, Universidad Nacional de Río Cuarto y la Universidad de la República (Montevideo-Uruguay). La realización de las JCC es un proceso que continúa año a año y constituye un logro significativo del cuerpo de docentes y de estudiantes de la carrera Licenciatura en Ciencias de la Computación.
Jueves | Viernes | |
---|---|---|
10:40 - 11:20 | C00 | C10 |
11:20 - 12:00 | C01 | C11 |
12:00 - 13:45 | Lunch | Almuerzo |
13:45 - 14:00 | Acto de apertura | |
14:00 - 14:45 | C02 | C12 |
15:00 - 15:45 | C03 | C13 |
16:00 - 17:00 | Coffee Break | |
17:00 - 17:45 | C04 | C14 |
18:00 - 18:45 | C05 | --- |
19:00 - 20:00 | Entrega de Diplomas | |
21:00 - ∞ | Cena de Camaradería |
-
La comunicación entre humanos es por naturaleza multi-modal, predominantemente bimodal (audio-visual), en el sentido que son de fundamental importancia tanto la información acústica de la señal emitida por la persona que está hablando, como la información visual de los gestos que esa persona está realizando. En particular, la información visual del movimiento de labios, y otros músculos faciales posibilita una mejor comprensión del mensaje que se quiere transmitir.
Por tal motivo, en las últimas dos décadas ha habido un creciente interés en el estudio, desarrollo e implementación de nuevas tecnologías que utilicen información audio-visual. En este trabajo se aborda el problema de representación y modelado de información audio-visual relacionada con el habla. En particular, esta investigación se orienta al estudio, desarrollo e implementación de algoritmos de procesamiento audio-visual de señales de voz. Los métodos y técnicas propuestas en este trabajo corresponden a tres áreas de investigación diferentes, a saber, extracción de características de la señal de voz y de la expresión facial, modelado de la información audio-visual y animación de modelos de rostro virtuales.
-
-
La computación de propósito general en unidades de procesamiento gráfico (GPGPU) ha cobrado peso en los últimos años en el ámbito de la computación de alto desempeño (HPC) por combinar alto poder de cómputo y eficiencia a precios razonables.
En esta charla hablaré de cómo una GPU obtiene su performance desde un punto de vista arquitectónico comparándola con una CPU, para contrastar las decisiones de diseño tomadas y mostrar las dificultades que estas decisiones conllevan a la hora de implementar algoritmos.
-
Cada vez estamos más rodeados de artefactos de software que impactan directa o indirectamente en nuestra vida cotidiana. El incorrecto funcionamiento de estos artefactos puede ocasionar pérdidas que van desde dolores de cabeza multitudinarios hasta pérdidas irreparables. La verificación formal y el testing demostraron ser herramientas de suma utilidad, sin embargo seguimos encontrándonos con errores en el software que consumimos. La técnica de validación por excelencia es la revisión de código, pero es excesivamente costosa de aplicar en gran escala. En esta charla veremos una técnica de validación visual que, mediante abstracción y síntesis de modelos de comportamiento, permite descubrir problemas en artefactos de software de un vistazo.
-
Se presenta Erlang, un lenguaje funcional con primitivas para concurrencia, procesos livianos y una plataforma adecuada para sistemas tolerantes a fallas y alta disponsibilidad. Al final se servirá café.
-
Cuando vemos la secuencia 10101010101010101010 y la secuencia 11011010010000110101 tenemos la sensación de que la segunda es "más aleatoria" que la primera. Sin embargo, si se generaron tirando una moneda y anotando 0 para ceca y 1 para cara, en términos de probabilidad, cada una es igual de probable. Entender por qué algunas secuencias parecen aleatorias pero otras no, es una cuestión profunda y fundamental. Desde principios del siglo 20 se empezó a pensar en este problema. Pero cómo transformar nuestra intuición de lo "aleatorio" en una definición matemática con sentido no fue una tarea fácil. Al final, las definiciones que se encontraron terminaron estando todas muy relacionadas con la teoría de la computabilidad.
En esta charla voy a presentar algunas formas de definir formalmente a las secuencias aleatorias según distintos enfoques. Voy a hablar de la complejidad de Kolmogorov, del número Omega de Chaitin y del problema de la detención. Voy a terminar contándoles un proyecto nuevo que relaciona la complejidad de Kolmogorov con experimentos en neurociencia (sí, leyó bien: neurociencia).
-
En busca de aportar nuevas soluciones, las tecnologías asociadas al tratamiento de datos sufren cambios vertiginosos generando nuevos desafíos de aprendizaje y una búsqueda constante de nuevas aplicaciones. Este es el caso de las tecnologías de sensado masivo y paralelo que están revolucionando la Biología, la Medicina, la Biotecnología y la Agricultura. La capacidad de observación de grandes volúmenes de datos complejos (datos con elevada dimensionalidad, correlación, ruido, y/o insuficientes número de muestras) trae consigo una nueva generación de problemas computacionales, cuyo abordaje en algunos casos requiere cuidadosas propuestas de adaptación y en la gran mayoría, el diseño de soluciones completamente novedosas. Asimismo, debemos recalcar que los proyectos sobre datos complejos requieren de un aporte multidisciplinar mediante la mirada conjunta de especialistas de diversas áreas: ingenieros, biólogos, agrónomos, estadísticos, etc.
-
Un problema que aparece en cualquier definición de computación, es su capacidad para distinguir sistemas que computan de aquellos que no. Varios autores postulan la ausencia de rasgos específicos en la idea de computación, el pan-computacionalismo: "todo computa"; a veces expresado como relativismo semántico: "la computación está en el ojo del observador".
En la charla propuesta sugeriré que las nociones de interprete y programa pueden dar cuenta de algunas de las propuestas acerca de la noción de cómputo que considero más apropiadas. A su vez la noción de interprete y programa presenta algunas ventajas conceptuales significativas en relación con otras propuestas
-
La tecnología de virtualización es un componente esencial para la provisión segura de lo que se ha denominado Infrastructure as a Service (IaaS) en cloud computing. En general, las plataformas de virtualización están siendo extensivamente usadas en sistemas embebidos, aeroespaciales y en varios otras dominios para proteger componentes críticos con altos requerimientos de integridad de la acción de sistemas no críticos y no confiables.
Un hipervisor es un componente de software que permite que varios sistemas operativos puedan ejecutar sobre una misma plataforma de hardware compartiendo recursos. Por lo tanto, un desafío que se presenta es el de verificar que las plataformas de virtualización proveen sólidas garantías de que los sistemas que operan sobre las mismas lo hacen en forma aislada y segura.
En esta presentación se describirá un modelo idealizado de un hipervisor que ha sido especificado usando el asistente de pruebas Coq y del que se ha formalmente verificado que garantiza propiedades de aislamiento entre los sistemas operativos que ejecutan sobre la plataforma de virtualización y que los requerimientos de los sistemas operativos son siempre atendidos.
Este trabajo se enmarca en la actividad de investigación realizada en el proyecto de investigación fundamental VirtualCert (proyecto ANII-Fondo Clemente Estable 2009, Uruguay).
-
En el dictado de Algoritmos y Estructuras de Datos I de la LCC, se han introducido problemas de ACM, Google Code Jam, USACO, etc. en las clases de todos los días. Habitualmente este tipo de problemas son mas bien extra curriculares. Se ha llevado al día a día este tipo de problemas y se ha intentado introducir una forma de conseguir que los conocimientos sean adquiridos de manera "implícita", como parte de un objetivo mayor: resolver problemas. Esta forma de plantear la materia mostró tener algunas consecuencias interesantes; una de estas consecuencias fue que el interés y la motivación por "ir mas allá de lo que se ve en la clase" que se despertó en el promedio del curso fue muy alta. Varios alumnos espontáneamente decidieron aprender cosas de diferentes áreas (conceptos de teoría de números, conceptos de topología algebraica, conceptos de criptografía) porque estos problemas logran que los alumnos se "empecinen" en querer resolverlos.
Al punto de aprender lo que sea necesario para poder resolverlos. Otra de las consecuencias que tuvo fue que requirió un gran esfuerzo de parte de la cátedra, y eso desembocó en el diseño de algunas herramientas que se desarrollaron para el dictado. En esta charla se pretende mostrar con un poco mas de detalle este experimento; explicar el motivo en el cual se basó la decisión de guiar la materia a través de problemas y que los contenidos sean cuestiones implícitas, la motivación que se generó en los chicos, comentar un poco los "cuidados" que requirió hacerlo de esta manera, mostrar las herramientas que surgieron, etc.
-
La reciente popularidad de arquitecturas de hardware de tipo paralelas (CMP's) hace necesario el estudio de construcciones de alto nivel que faciliten la programación de carácter concurrente. Propuestas en este sentido se han venido desarrollando desde hace más de 20 años, donde se destacan las regiones críticas condicionales y lo monitores con señalamiento automático. Estas construcciones son herramientas interesantes para desarrollar programas concurrentes de manera simple y de forma correcta. Lamentablemente no han sido incluidas como parte del diseño de los lenguajes de programación debido principalmente a problemas de eficiencia en sus implementaciones.
Nuestro trabajo desarrolla métodos totalmente automáticos para mejorar las implementaciones de estas construcciones mediante el uso de probadores de teoremas del tipo SMT solver (CVC3) y probadores de lógica de alto orden (Isabelle/Isar), utilizados dentro de técnicas de interpretación abstracta. En el caso de regiones críticas condicionales la propuesta se aplica a implementaciones automáticas producidas por la técnica de Semáforos Binarios Divididos desarrollada por E.W.Dijkstra. En el caso de monitores con señalamiento automático, el método mejora implementaciones con monitores de señalamiento explícito.
- Damián Barsotti [FAMAF, UNC]
- Carlos S. Bederian [FAMAF, UNC]
- Eric Biagioli [FCEIA, UNR]
- Javier Blanco [FAMAF, UNC]
- Pilar Bulacio [CIFASIS, Conicet]
- Guido de Caso [FCEyN, UBA]
- Santiago Figueira [FCEyN, UBA]
- Diego Garbervetsky [FCEyN, UBA]
- Raúl Kantor [FCEIA, UNR]
- Carlos Luna [Universidad de la República, Uruguay]
- Guido Macchi [FCEIA, UNR]
- Lucas Terissi [CIFASIS, Conicet]
- Dirección : Pellegrini 250 - Rosario - Santa Fe - Argentina
- Teléfono : 0341-48026 49 al 59 int 231 (de 8 a 14hs.)
- Fax : 0341-4802654
- E-mail : jcc (at) fceia (dot) unr (dot) edu (dot) ar
- JCC 2005
- JCC 2006
- JCC 2007
- JCC 2008
- JCC 2009
- JCC 2010
- Licenciatura en Ciencias de la Computación (λc.c)
- FCEIA en Wikipedia