Resúmenes Recibidos. Jornadas '99

Los trabajos siguientes aparecen en el orden que fueron recibidos. Si detecta alguna inconsistencia con los datos enviados o desea corregir alguno de ellos, por favor cominíquese con el = comité organizador.


Processing Text Files with a Functional Programming Language
Guillermo Calderón=

We illustrate how to use a lazy functional programming language to write programs for processing text files. = Applications such as = consulting small databases, generating formatted reports, producing indexes of documents, etc., are usually written in some special-purpose language like Awk; since it is = assumed that doing this in a general-purpose language can take a lot of work and many lines of code. = In this paper, we show that this assumption does not apply to a functional language like Haskell. In particular, we = describe how several well-known properties of functional languages, namely lazy evaluation, higher order functions, parametric polymorphism, and pure functional input-output provide a = powerful framework for implementing this kind of applications. In addition, we think the collection of examples we present in this paper= consti tutes themselves an interesting tutorial material suitable to introduce fundamentals of functional programming to beginners.

(This paper was accepted to be presented in CLAPF '99, Recife) =


Interpretando Objetos


Gustavo Betarte

FOb es un intérprete para un lenguaje orientado a objetos fun= cional. El intérprete implementa básicamente el algoritmo de reducc= ión definido para los términos cerrados del cálculo lV, presentado en "A Theory of Objects", de Abadi y Cardelli. Este cálculo tiene como característica más importante la de constituir un formalismo que permite expresar los fundamentos de la programación OO basada en objetos (en contraste con el enfoque tra= dicional de la programación OO basada en clases).

El lenguaje soporta: construcción de objetos, selección (invocación) y actualización de campos y métodos, y definición de funciones y su aplicación a argumentos. Pue= de ser fácilmente extendido para proveer definición de clases,= subclases y el correspondiente tratamiento de herencia (formalmente &eacu= te;stas son construcciones definidas, no primitivas). Se le ha incorporado tambi&= eacute;n al lenguaje primitivas para la construcción y el cálculo de expresiones aritméticas y booleanas, así como un operado= r de discriminación.

En esta charla se presentará FOb, se harán breves refere= ncias al cálculo lV, y se ilustrará la metodología de programación que naturalmente soporta el lenguaje.

El intérprete ha sido implementado usando Haskell 1.4 y puede ser interactivamente invocado, al igual que ciertas funcionalidades adici= onales, desde una interfase gráfica XEmacs.

=

CONTEXT : una plataforma inform=E1tica para la Exploraci=F3n Context= ual


Gustavo Crispino

El m=E9todo de Exploraci=F3n Contextual [Descl=E9s et al. 1991], [Descl= =E9s 1996] = permite tomar en cuenta los =EDndices contextuales internos en un texto, = para resolver indeterminaciones sem=E1nticas o para tomar ciertas decisiones e= n la construcci=F3n del significado. En el equipo Lalic del CAMS (UM 17 CNRS, EHESS, Paris IV) se han implemen= tado diversos sistemas basados en este m=E9todo : - identificaci=F3n de valores aspectuales de una proposici=F3n - filtrado autom=E1tico de oraciones importantes de un texto para la = construcci=F3n de un resumen autom=E1tico - modelizaci=F3n de conocimientos por medio del an=E1lisis de marcadores = ling=FC=EDsticos de relaci=F3n entre conceptos - detecci=F3n, en textos t=E9cnicos, de expresiones de acci=F3n ligadas p= or = relaciones causales Actualmente, en el marco del proyecto ECOS, se est=E1 realizando un traba= jo = conjunto entre el mencionado laboratorio y el grupo de TALN del In.Co., destinado a la definici=F3n de una arquitectura inform=E1tica general sus= ceptible de tomar en cuenta todas las aplicaciones del m=E9todo de Exploraci=F3n C= ontextual, y en la implementaci=F3n de un prototipo que trabaje sobre textos en fran= c=E9s y en castellano. En la comunicaci=F3n que aqu=ED se propone se presentar=E1 la arquitectur= a de la plataforma y un lenguaje formal para la manipulaci=F3n de textos que es u= tilizado para expresar los conocimientos ling=FC=EDsticos sobre los que se apoya e= l m=E9todo de Exploraci=F3n Contextual. Se realizar=E1 adem=E1s una demostraci=F3n d= el estado actual del prototipo en una aplicaci=F3n de resumen autom=E1tico. Referencias bibliogr=E1ficas : [Descl=E9s et al. 1991] Descl=E9s, J.-P.; Jouis, C.; Oh, H.; Reppert, D. "Exploration contextuelle et s=E9mantique : Un syst=E8me expert qui trouv= e les valeurs s=E9mantiques des temps de l'indicatif dans un texte" Knowlegde modeling and expertise transfert, pp. 371-400, IIOS Press, 1991= [Descl=E9s 1996] Descl=E9s, J.-P. = "Syst=E8mes d'exploration contextuelle" Table ronde sur le Contexte, Avril 1996, Caen =


Convenio Udelar-B.S.E. Informe de actividades


Joaquin Goyoaga
Jorge Sotuyo

En 1997 el B.S.E. solicito a la Universidad de la Republica una auditor= ia sobre el proceso licitatorio para la adquisicion de un software integral de seguros. Como consecuencia del informe realizado por la Universidad, el B.S.E. res= olvio realizar nuevamente el llamado a licitacion integrando = a la Auditoria de la Universidad desde las etapas iniciales. Esa activida= d se llevo a cabo en el segundo semestre = de 1998 centrandose en la confeccion del pliego de licitacion.. Este trabajo (informe) busca transmitir las experiencias de quienes traba= jan en el Convenio sobre las actividades y metodos seguidos por los equipos de la UdelaR para la realizacion de la Auditoria. =


Gestión Automática del Taller de Programación I


Guillermo Calderón=

= Se describe la experiencia obtenida en el curso de = Programacion I en la gestión del taller práctico de la materia mediante procesos automáticos. Esto involucra aspectos tales como entrega remota a cargo de los propios estudiantes, generación de casos de prueba, ejecución y asignación de puntajes. = Los programas fueron implementados en ambiente Unix y escritos en diferentes lenguajes (Haskell, Korn shell, Perl, Awk). = En esta charla se realiza una descripción completa del proceso y se presentan las conclusiones de esta primera experiencia que puede ser extendida a otros cursos con taller de la carrera.


Desarrollo y Testeo de Algoritmos de Asignaci=F3n para el Pr= oblema de Ruteo de Veh=EDculos.


Daniel Giosa
Libertad Tansini

Abstract. El Problema de Ruteo de Veh=EDculos con M=FAltiples Dep=F3sitos (MDVRP, p= or sus siglas en Ingl=E9s) consiste en transportar un =FAnico producto de= sde un conjunto de dep=F3sitos a un conjunto de clientes, minimizando el = costo por concepto de transporte. Los clientes y los dep=F3sitos se encue= ntran dispersos geogr=E1ficamente, y para transportar el producto, los de= p=F3sitos disponen de una flota homog=E9nea de veh=EDculos (todos los veh= =EDculos tienen la misma capacidad de transporte). Un enfoque posible para la resoluci=F3n de este problema es dividirlo en = dos problemas distintos pero estrechamente relacionados. El primer proble= ma a resolver es la asignaci=F3n de clientes a dep=F3sitos, es decir, dec= idir qu=E9 dep=F3sito servir=E1 a qu=E9 cliente. El segundo problema cons= iste en resolver un Problema de Ruteo de Veh=EDculos (VRP) para cada dep=F3= sito y los clientes asignados a =E9l. Es muy importante tener en cuenta l= a relaci=F3n que existe entre ambos problemas, dado que una mala asignaci= =F3n, conduce a un mal ruteo. En este trabajo se estudian y comparan seis algoritmos para resolver el p= roblema de asignar clientes a dep=F3sitos. Para esto utilizamos el Sistem= a de Informaci=F3n Geogr=E1fica (GIS) ArcView. = De los algoritmos que comparamos, no hay ninguno que de buenos resultados= a un bajo tiempo de ejecuci=F3n. De acuerdo a las pruebas realizadas el = algoritmo que da los mejores resultados es la Variante de Igo & Russell, = pero es tambi=E9n el que tiene peor tiempo de ejecuci=F3n. El algoritmo C= =EDclico es el que obtiene los peores resultados aunque es el m=E1s r=E1p= ido. = El estudio de los algoritmos corresponde al proyecto de grado (Taller V) = de la carrera de Ingeniero en Computaci=F3n de los autores. =


An Algorithm for Dependency Analysis


Patricia Peratto

Polymorphic type systems for functional languages are well-known in the= literature. They solve the problem of type checking polymorphic expressions. The treatment of mutually recursive definitions can be solv= ed in a = similar way to the type checking of nested letrec definitions once we hav= e they = grouped according to their mutual dependences and the groups ordered in d= ependency = order. In this paper we present an algorithm for dependency analysis. It= s main idea = is cicle detection. Definitions are grouped according to the existence of= a cicle = between them (that means that are mutually recursive) that is detected by= a DFS-based = algorithm. An order for the groups is also determined by the same algorit= hm, that means = we solve the complete problem with a unique, simple algorithm. =


Improving Distributed Scientific Calculus Dispatch on Non-De= dicated Computer Networks Using PVM


Sergio Nesmachnow
=

= In order to increase the overall performance of distributed calculus appl= ications running in a network of non-dedicated workstations, we have rese= arched methods for improving load balancing in loosely coupled heterogene= ous distributed systems. The software designed to handle distributed applications does not focus o= n the problem of forecasting the computers' future load. The software onl= y dispatches the tasks assigning them to an idle CPU (in dedicated networ= ks) or to the lowest loaded one (in non-dedicated networks). Our methods tries to improve the standar PVM (1) process dispatching stra= tegies, by implementing a new dispatching criteria. It proposes to choose= the most suitable computer after forecasting the load of the individual = machines based on current and historical data. The implementation is to b= e included in the PVM library, so existing applications that use PVM coul= d take advantage of this new service with no extra changes but a recompil= ation. The new algorithms will be tested and compared to verify the improvement = over the dispatching strategy already available in PVM. In order to do so= , we need a tool to arbitrarily replicate historical observations of load= parameters while applying the different strategies. The replication proc= ess itself is another topic of this project. The overall performance of the system will be tested with in-house develo= ped numerical models. The project reported here is connected with other efforts at CECAL devote= d to make it easier for scientists and developers to gain advantage of pa= rallel computing techniques using low cost components. (1) - Parallel Virtual Machine : one of the most currently used parallel = languages to develop distributed applications.


Subgrafo de Steiner 2-arista-conexo y su generalizacion.


Franco Robledo

Un grafo G es 2-arista-conexo si para todo par de nodos de G, hay al m= enos 2 caminos de aristas disjuntas. = Si se asocian pesos a las aristas de G y T es un subconjunto de nodos de = G, entonces el problema de hallar el subgrafo de Steiner 2-arista-conexo = es encontrar un subgrafo 2-arista-conexo de costo minimo que cubra los no= dos de T. La generalizacion de este problema consiste en encontrar el subgrafo de c= osto minimo que cubre T y cumple con los requerimientos de conectividad d= ados por una matriz R. Ambos son problemas de optimizacion combinatoria y tienen aplicacion en e= l diseno de redes de comunicacion confiables y problemas de transporte. Como parte de mi tesis de Maestria, se estudia el disen~o de heuristicas = para resolver estos problemas. En la presentacion se veran los siguientes puntos: - se mencionaran algoritmos que resuelven estos problema basados en un en= foque poliedral, - analisis de complejidad, - disen~o de heuristicas. =


Modelos Conceptuales para OLAP.


Fernando Carpani
=

= Desde hace algunos a=F1os, los Sistemas de DataWarehousing y las = aplicaciones Olap se han constituido en un t=F3pico de inter=E9s en el mu= ndo de la inform=E1tica. El origen industrial de estos sistemas hace que = exista una gran cantidad de software desarrollado pero pocas l=EDneas met= odol=F3gicas sobre como construir este tipo de software. Estas l=EDneas m= etodol=F3gicas son m=E1s bien dependientes de un software o familia de so= ftware determinado. = Uno de los problemas m=E1s claros es que, a pesar del consenso existente = en que los datos se deben razonar como multidimensionales, faltan modelos= conceptuales sobre los cuales se pueda llevar adelante el an=E1lisis y e= l dise=F1o con ese enfoque. Si bien hay diversos modelos definidos, la mayor=EDa o son dependientes d= e familias de productos, o bien se concentran en aspectos operativos pero= no son muy aplicables a las tareas de an=E1lisis y dise=F1o. Los pocos q= ue se concentran en un enfoque conceptual, contemplan solo algunos aspect= os del problema. En este art=EDculo se presentan las ideas b=E1sicas de un modelo de datos= conceptual multidimensional desarrollado en el LCSI. Este modelo est=E1 = orientado a servir de apoyo a las tareas de an=E1lisis y dise=F1o de sist= emas basados en OLAP. Previamente se presentar=E1n algunas ideas b=E1sica= s sobre modelos multidimensionales, y luego los criterios utilizados para= la definici=F3n del modelo y una rese=F1a de lo avanzado hasta el moment= o.


Programaci=F3n 1: mi informe no oficial


Luis Sierra

= Es conocida la situaci=F3n de masividad que presenta la Facultad = de Ingenier=EDa, y en particular las materias dictadas por el Instituto d= e Computaci=F3n. Sin lugar a dudas, la materia que presenta m=E1s inscripto= s de la carrera es Programaci=F3n 1, que tuvo que asistir a 900 potenciales estudiantes en el correr del =FAltimo semestre. = Es objeto de esta charla presentar los mecanismos que se han propuesto de= sde los docentes de Programaci=F3n 1 para enfrentar la demencial relaci=F3n estudiante docente en la que nos encontramos debido = a las caracter=EDsticas de nuestra sociedad y las penurias presupuestales ya tradicionales de la Universidad. Estos mecanismos, que = responden a una =F3ptica global del curso, incluyen desde la relaci=F3n docente estudiante en las clases hasta el uso de Internet. = Como es de esperar, las medidas tomadas han tenido luces y sombras. Me pr= opongo se=F1alar a lo largo de la charla aquellas medidas que estimo convenientes para conseguir un mejor aprovechamiento de los recurs= os con que contamos. =


Dise=F1o de Data Warehouses: un encare basado en primitivas =


Adriana Marotta

= Un Data Warehouse es una Base de Datos que almacena informaci=F3n= de alta calidad con el objetivo de servir como base para la toma de deci= siones. Como Base de Datos tiene caracter=EDsticas particulares, las cual= es se resumen a continuaci=F3n. Sus datos son el resultado de transformac= iones, mejoramiento en la calidad, e integraci=F3n de datos de bases oper= acionales, adem=E1s incluyen indicadores que les dan valor agregado. Los = Data Warehouses deben soportar consultas complejas (sumarizaciones, agrup= amientos, cruzamientos de datos), sin embargo su actualizaci=F3n no supon= e carga transaccional sino que m=E1s bien se realiza en forma batch y per= iodicamente, organiz=E1ndose en base a criterios relacionados con su sem=E1= ntica. = Debido a estas particularidades, el proceso de dise=F1o y las estrategias= utilizadas son diferentes de las tradicionales para Bases de Datos Relac= ionales. Por ejemplo, en el dise=F1o de un Data Warehouse ya no se consid= era malo a priori la existencia de redundancia en los datos, ya que el vo= l=FAmen de =E9stos suele ser tan grande que no es significativo el espaci= o ocupado por los datos redundantes, y ya que esto no supone una degradac= i=F3n en la performance de actualizaciones transaccionales. Este trabajo se centra en la tem=E1tica de dise=F1o de Data Warehouses. Dentro del estudio de t=E9cnicas y herramientas para dise=F1o de Data War= ehouses (y Bases de Datos en general) la definici=F3n de primitivas de di= se=F1o resulta de gran inter=E9s, ya que =E9stas materializan conocimient= o de criterios de dise=F1o y proveen traceabilidad del dise=F1o. Adem=E1s= , mejoran la productividad del dise=F1ador, al funcionar como building-bl= ocks de dise=F1o que se van componiendo para construir el esquema final. = El inter=E9s por estas primitivas aumenta si estas son implementadas dent= ro de una Herramienta CASE. El estado del arte en el =E1rea consiste en e= strategias informales, espec=EDficas para casos puntuales y orientadas a = productos o encares tecnol=F3gicos particulares. Se percibe la falta de u= na unificaci=F3n formal de criterios y estrategias generales de dise=F1o = de Data Warehouses sobre el Modelo Relacional. Por =FAltimo, considerando el contexto de Data Warehouses sobre informaci= =F3n proveniente de p=E1ginas Web, en donde uno de los puntos cr=EDticos = es la alta evolutividad de los esquemas fuentes, estas primitivas resulta= n de gran importancia para realizar la repercusi=F3n de los cambios de lo= s esquemas fuentes hacia el Data Warehouse. En este trabajo se propone un conjunto de primitivas de dise=F1o de esqu= ema de Data Warehouses. Estas primitivas se aplican sobre los esquemas fu= ente, y m=E1s especificamente sobre su integraci=F3n.. Tambi=E9n se prove= e, junto a cada primitiva, la especificaci=F3n de la transformaci=F3n que= debe ser aplicada a las instancias del esquema origen, para poblar el Da= ta Warehouse generado. Por =FAltimo se presentan distintas alternativas d= e resoluciones, por medio de la utilizaci=F3n de las primitivas, a proble= mas t=EDpicos que se deben enfrentar en el dise=F1o de un Data Warehouse.= Este trabajo continua en desarrollo, ya que se espera obtener resultados = relativos a la repercusi=F3n en el Data Warehouse de la evoluci=F3n en lo= s esquemas fuentes, y al mantenimiento de los datos provenientes de las B= ases fuentes.


Modelos de Actualizaci=F3n de Conocimiento


Carlos Daniel Luna

Dentro del campo de la Inteligencia Artificial existen diferentes =E1re= as que tratan de modelar = razonamiento humano. En particular, la Teor=EDa de Cambio de Creencias bu= sca caracterizar la = din=E1mica del conocimiento, esto es, c=F3mo deber=EDa ser la actitud epi= st=E9mica de un agente racional = frente a ciertas creencias, ante la llegada de nueva informaci=F3n. Esta = informaci=F3n externa puede = implicar la incorporaci=F3n o el abandono de creencias -mediante determin= adas operaciones de = cambio- generando de este modo un nuevo estado epist=E9mico. La Teor=EDa = de Cambio de Creencias = irrumpe en la L=F3gica Filos=F3fica y la Inteligencia Artificial en la =FA= ltima d=E9cada. El paso inicial fue = provisto por Levi y Alchourr=F3n, G=E4rdenfors y Makinson (modelo AGM). P= osteriormente, = numerosos trabajos se han desarrollado en esta =E1rea y en torno a este m= odelo. El tema tiene = particular importancia en las =E1reas de sistemas expertos, actualizaci=F3= n de bases de datos l=F3gicas, = razonamiento hipot=E9tico, programaci=F3n l=F3gica y machine learning, en= tre otras. = Esta presentaci=F3n tiene por objetivo introducir y analizar algunos frag= mentos de la Teor=EDa de = Cambio de Creencias, haciendo hincapi=E9 en el modelo central de la misma= : AGM. Asimismo, la = exposici=F3n abarcar=E1 un estudio de la aplicabilidad de AGM a la actual= izaci=F3n de bases de = conocimiento finitas y el desarrollo de dos sistemas extendidos, a partir= de la utilizaci=F3n de = lenguajes de primer orden de representaci=F3n. Finalmente, se presentar=E1= un modelo de revisi=F3n de = creencias (en actual desarrollo) alternativo al est=E1ndar AGM. El modelo= propuesto, a diferencia = de AGM, impide caracterizar un estado epist=E9mico inconsistente y condic= iona la aceptaci=F3n de = nueva informaci=F3n. Consecuentemente, resulta naturalmente adecuado, ya = que la aceptaci=F3n de = creencias queda parametrizada, pudiendo adaptarse el nuevo modelo a un es= quema de = justificaciones para las creencias. Este =FAltimo trabajo abarca la forma= lizaci=F3n del modelo = "param=E9trico de revisiones consistentes", el an=E1lisis de sus propieda= des m=E1s relevantes, su = relaci=F3n formal con las operaciones de cambio AGM y las diferencias con= el m=E9todo de = semi-revisi=F3n (concebido por Hansson). = La charla resume los resultados parciales obtenidos en trabajos recientes= y en un trabajo en = progreso, cuyos informes est=E1n a disposici=F3n. =


Verificación formal de un marcapasos programable (Traba= jo en curso)


Luis Sierra

=

La producción de software se caracteriza por la presencia de errores= en la programación. La depuración de los mismos representa un costo elevado en la vida &= #250;til de un sistema informático. Si bien la existencia de errores (o bugs) llega a ser tolerable en alguno= s casos, como ser procesadores de textos o juegos , no todas las aplicaciones actuales de la informática permiten tale= s libertades. Entre estas aplicaciones críticas podemos mencionar sistemas de gest= ión bancaria, de control industrial, o de navegación aérea= =2E

Para obtener una mayor certeza en el buen funcionamiento de un software n= os sería necesario ``algo más'' que la confianza en el programa= dor. El objeto de los métodos formales es el brindar ese ``algo más'= ', desde una perspectiva lógica y matemática. Actualmente, esta certificación matemática es considerada un re= quisito para la adquisición y/o desarrollo de sistemas por parte de = distintos gobiernos y empresas industriales, en especial en los llamados = países desarrollados. Este trabajo aspira a mostrar la viabilidad de llevar adelante un proceso= de verificación y validación de un software utilizado industri= almente, en el contexto del Grupo de Métodos Formales del InCo (GMF)= y la industria electrónica nacional.

La empresa CCC exporta marcapasos = controlados por un pequeño procesador programable. El GMF ha iniciado un trabajo conjunto con CCC a fin de obtener una verif= icación formal del software producido por dicha empresa. A lo largo de este año esperamos construir una experiencia propia en= el campo de los métodos formales que nos permitan conjugar distinta= s técnicas a fin de obtener una certificación total o parcial d= el código del microcontrolador.

El trabajo que presentamos en el día de hoy consiste de la especific= ación de una clase de marcapasos producidos por la empresa. También delinearemos las direcciones principales del estudio que hem= os emprendido, señalando especialmente las técnicas de mét= odos formales que pensamos emplear a lo largo de nuestra investigaci= 3;n.


Simulacion en estado transitorio de sistemas altamente= confiables =


Hector Cancela

= En la actualidad, el modelado y la evaluacion de medidas de seguridad de funcionamiento es un aspecto importante dentro del dise~no de sistemas informaticos y de comunicaciones complejos. Una de las herramientas mas flexibles es el modelado a traves = de cadenas de Markov, que permiten la representacion del = comportamiento dinamico y la interaccion entre los distintos = componentes de un sistema. Cuando el sistema es peque~no, es posible tambien evaluar analiticamente las medidas de interes; pero a medida que el numero de componentes crece, = los metodos analiticos dejan de ser factibles, debido al incremento exponencial del tiempo de calculo. = Una alternativa es el empleo de tecnicas de simulacion Monte Carlo, que proporcionan estimaciones (con un cierto intervalo de confianza) de las medidas de seguridad de funcionamiento. El = metodo Monte Carlo estandar (o ``crudo'') tambien sufre de inconvenientes cuando los eventos de interes son raros (ocurren con muy baja probabilidad), lo que es comun en los sistemas = altamente confiables. Es necesario entonces recurrir a tecnicas = de reduccion de la varianza, que pueden calcular estimadores mas = precisos utilizando muestras del mismo tama~no cite{Fishman97}. = En el caso de las medidas en regimen estacionario, una familia = de esquemas de muestreo segun importancia (que reciben en forma = amplia el nombre de metodos de ``failure biasing'') han demostrado ser apropiados. Estos esquemas no son tan eficientes para la = evaluacion de medidas en regimen transitorio; en este caso, = otras tecnicas deben ser utilizadas. Este trabajo se concentra en la evaluacion por simulacion (Monte Carlo) de la confiabilidad instantanea $R_t$ que es una de las medidas de seguridad de funcionamiento en regimen transitorio mas = utilizadas en estos sistemas, = y presenta un metodo basado en tecnicas de reduccion recursiva de = la varianza que garantiza mayor eficiencia respecto al metodo = Monte Carlo estandar. = =


t5icase: Integraci=F3n de Herramientas CASE

Proyecto de Taller V: Edelweiss Kammermann, Fabian Pazos, Federico Blez= io Supervisor: Raul Ruggia Las herramientas CASE (Computer Assistance Software Engenering) tienen co= mo objetivo aumentar la productividad y mejorar la calidad de los sistema= s inform=E1ticos. Es por esto que constituyen un tipo de software fundame= ntal en el desarrollo de proyectos, sobre todo de gran porte. Por otro la= do, la diversidad de lenguajes y metodolog=EDas existente, y sobre todo e= l avance permanente en los mismos, ha hecho que no exista una herramienta= (o m=E1s bien un ambiente) CASE que cumpla todas las caracter=EDsticas d= eseables para un ambiente de este tipo. Por lo tanto los siguientes dos aspectos revisten de gran inter=E9s: (i) = la reutilizaci=F3n de informaci=F3n generada en diferentes herramientas C= ASE, por ejemplo reutilizar dise=F1os generados en proyectos anteriores d= e distinto porte o paradigma; y (ii) la extensibilidad de ambientes CASE = con nuevas herramientas, nuevas funcionalidades, o con herramientas desar= rolladas para otros ambientes, siguiendo una estrategia de ambiente integ= rado-extensible en lugar de monol=EDtico. Estas caracter=EDsticas permite= n dar una mejor respuesta frente a nuevos requerimientos. Este proyecto aborda estos dos problemas continuando con el realizado en = el a=F1o 1997 "Un ToolBox de Asistencia al Dise=F1o de Base de Datos" por= A. Blanco y A. Ferreira. En concreto se abord=F3 el problema de la reuti= lizaci=F3n de informaci=F3n a trav=E9s de la definici=F3n e implementaci=F3= n de una interface CORBA (Common Object Request Broker Adapter). Se emple= =F3 a tal fin el modelo propuesto por CDIF (Case Data Interchange Format)= , ideado como un m=E9todo de transferencia de informaci=F3n mediante arch= ivos de un repositorio a otro. Dicho modelo ha sido enriquecido arribando= a un est=E1ndar CDIF-OMG (Object Management Group creador de CORBA). Se desarroll=F3 un Servidor de Repositorio orientado a objetos al cual se= accede mediante CORBA. El mismo exporta una interface CDIF y en este pro= yecto interact=FAa con el respositorio de Oracle Designer/2000 para almac= enar los objetos dise=F1ados. El dise=F1o brinda independencia del reposi= torio empleado para el almacenamiento de datos. La interacci=F3n entre las diferentes herramientas del ambiente CASE es r= esuelta por CORBA tal como se estudi=F3 en el proyecto mencionado anterio= rmente mientras que en =E9ste se enfatiza el intercambio de informaci=F3n= =2E La plataforma as=ED desarrollada permite por lo tanto implementar un = ambiente CASE basado en la integraci=F3n de diferentes herramientas (edit= ores de modelos, chequeadores, generadores de c=F3digo, etc). El proyecto se encuentra en su etapa final: se ha definido la interface C= ORBA, se implement=F3 un manejador de repositorio en Java que accede a Or= acle mediante JDBC y SQLJ, y se enriqueci=F3 el repositorio del Designer = de forma tal que soporte la definici=F3n del modelo CDIF.


Proyecto : T=E9cnicas y Herramientas para Concepci=F3n de Sistemas d= e DataWarehousing Laboratorio de Concepcion de Sistemas de Informacion (CSI)- Inco


Raul Ruggia
Joaquin Goyoaga

Los sistemas de DataWarehousing son sistemas de informaci=F3n cuyo obje= tivo fundamental es brindar apoyo a la toma de decisiones. Poseen dos caracter=EDsticas principales: la integraci=F3n de datos prove= nientes de diferentes fuentes y soportar operaciones de an=E1lisis de datos y consultas complejas sobre los mismos. Dichas carac= ter=EDsticas dan lugar a una arquitectura basada por una parte en una base de datos integradora de los datos de inter=E9s, llamad= o DataWarehouse, y por otra en modelos y herramientas orientados a facilitar las consultas y el an=E1lisis de los datos, dentr= o de los cuales se destacan los modelos multidimensionales y las herramientas O.L.A.P. El desarrollo de estos sistemas implica principalmente el dise=F1o e impl= ementaci=F3n de: i) el datawarehouse en si, incluyendo los procesos de carga y mantenimiento a partir de los datos fuentes y ii) vi= siones multidimensionales de los datos, incluyendo su correspondencia con las estructuras del datawarehouse. Las t=E9cnicas tradicionales de dise=F1o de bases de datos no son adecua= das o no abarcan completamente el desarrollo de sistemas DW. Es as=ED que resulta de inter=E9s el estudio y definici=F3n de modelos c= onceptuales de datos, t=E9cnicas de dise=F1o, criterios de calidad = y prototipaci=F3n de herramientas de apoyo al dise=F1ador enfocados a la = construcci=F3n de Sistemas DW. Este Proyecto aborda los temas mencionados relacionados con el dise=F1o d= e sistemas DW. M=E1s concretamente se encuentran en estudio los siguientes aspectos: Definici=F3n de Modelo Conceptual y T=E9cnicas de d= ise=F1o Multidimensional; T=E9cnicas de dise=F1o de DataWarehouses Relacionales; Estrategias y metodolog=EDa de desarrollo de Sistemas de D= ataWarehousing; Criterios de calidad en esquemas conceptuales. En la presentaci=F3n se dar=E1 una visi=F3n global del proyecto describie= ndo sus principales componentes y las relaciones entre ellos. = =


Simulador de lineas de transporte colectivo de pasajeros


Antonio Mauttone

El trabajo trata sobre la construccion de un prototipo ejecutable que simula el funcionamiento de lineas de transporte, esto es, el funcionamie= nto de buses y su interaccion con pasajeros. El trabajo se enmarca en el convenio realizado entre la Facultad de Ingen= ieria y la Intendencia Municipal de Montevideo, denominado "Modelado del Transpor= te Urbano Colectivo". La construccion del simulador surge como una herramienta de apoyo a la gestion racional del sistema. El interes en construir un modelo de simulacion se centra en la posibilidad de realizar distintas pruebas variando la configuracion del sistema, y comparar los resultados obtenidos en cada caso, para elegir entre las a= lternativas viables. La flexibilidad del simulador permite experimentar con el modelo y obtene= r estadisticas de diversas medidas relevantes, como por ejemplo, tiempos de espera y de viaje promedio de los pasajeros, ocupacion media de los buses, numero = de pasajeros por kilometro que viajan en estado de saturacion en cierto hora= rio, etc. El trabajo se dividio en tres partes fundamentales: - estudio del problema y modelado - implementacion - pruebas y validacion La primera parte consistio en definir el problema e incorporar conceptos = y palabras claves nuevos. El modelado se realizo con un enfoque orientado a objetos, pero desde el = punto de vista de la simulacion, es un modelo a eventos discretos. = La implementacion fue realizada en el lenguaje Modsim, especifico para si= mulacion, basado en Modula 2, al que agrega la manipulacion de objetos y manejo de = interfases graficas. El prototipo desarrollado se encuentra actualmente en la fase de pruebas y validacion del modelo. Para transformar la informacion brindada por la I.M.M. al formato de entrada del simulador, ha sido necesario desarrollar algunos modulos de procesamiento de datos, tarea que aun se encuentra en curso. Como desarrollo posterior, se podria encarar el refinamiento del modelo para = incorporar las caracteristicas de obtencion de estadisticas por destino para los pasajeros y la implementacion del metodo thining para tasas que varian se= gun el horario del dia, que en esta primera etapa fueron simplificadas. =


Matematica y Programacion


Sylvia da Rosa
Gustavo Cirigliano<= /a>

= Presentamos en estas notas la descripcion de un = curso experimental para estudiantes de primer ano de una = carrera de computacion. = En el mismo se introducen conceptos basicos de matematica = discreta y computacion en forma integrada, usando un lenguaje de programacion funcional como formalismo en el = cual se ejecutan las definiciones y los ejercicios del = curso.


Reingenier=EDa de Bases de Datos: Arquitectura de una Herramienta A= bierta Basada en Modelo Sem=E1ntico


Marcelo Colman
Gustavo Larriera
Fabiana Piotti
Raul Ruggia

La Reingenier=EDa de Bases de Datos (DBRE) es el conjunto de t=E9cnicas= que permite la obtenci=F3n de una representaci=F3n conceptual de un esqu= ema de base de datos a partir de su codificaci=F3n. Sus aplicaciones son = m=FAltiples, desde la re-documentaci=F3n de bases de datos que evoluciona= ron en el ambiente operativo hasta la reutilizaci=F3n de esquemas de base= s de datos, pasando por el apoyo a la migraci=F3n y la construcci=F3n de = metabases. El proceso de DBRE consiste en revertir las dos =FAltimas fase= s com=FAnmente aplicadas en el proceso de "ingenier=EDa hacia adelante". = Espec=EDficamente, deben revertirse secuencialmente la fase l=F3gica, don= de a partir de un esquema conceptual se elabora un esquema l=F3gico, y la= fase f=EDsica, donde el esquema l=F3gico es optimizado para un DBMS en p= articular, generandose el esquema f=EDsico de la base de datos. Se denomi= na a la primera fase de reversi=F3n, fase de extracci=F3n; a la segunda f= ase de reversi=F3n se la denomina fase de conceptualizaci=F3n. = Este art=EDculo presenta el estado actual de una herramienta de DBRE en p= leno desarrollo, cuyas caracter=EDsticas m=E1s relevantes son: (a) Captur= a la sem=E1ntica de la base de datos usando un Modelo Sem=E1ntico indepen= diente del uso que se dar=E1 a la especificaci=F3n sem=E1ntica, lo cual p= ermite derivar otras en una variedad amplia de modelos, por ejemplo Model= o Entidad-Relaci=F3n y Modelos Multidimensionales. (b) Est=E1 orientada, = no solo a re-documentar bases de datos, sino tambi=E9n a servir como base= para herramientas de exploraci=F3n de bases de datos. (c) Finalmente, in= tegra los resultados de algoritmos basados en diferentes t=E9cnicas. El desarrollo de este proyecto se realiza dentro del contexto del Laborat= orio de Sistemas de Informacion, del Universitario Autonomo del Sur (Mont= evideo, Uruguay).


Sistemas de Calculo Lambda con Asignacion de = Tipos Simples (Otra Vez!)


Alvaro Tasistro

Estudiamos los sistemas de asignacion de tipos simples a = terminos del calculo lambda, una vez mas, desde el punto de = vista de su correccion (completitud y consistencia) y de su caracter formal. = La motivacion es la (sorprendente) facilidad con que uno = sistemas de estos que luego resultan ser incompletos, esto = no asignan tipos a terminos que deberian tenerlos. La intencion es formular condiciones que garanticen en forma evidente la correccion de los sistemas que las cumplan y derivar de ellas sistemas formales de asignacion. =


Especificacion en Teoria de Tipos de un (peque~o) Sistema Operativo (para Tarjetas Inteligentes)


Gustavo Betarte
Cristina Cornes
Nora Szasz
Alvaro Tasistro

Se presentaran generalidades del estado del arte en el desarrollo de tarjetas inteligentes. Uno de los intereses principales del momento en esta area es el establecimiento de estandares de funcionalidades. Esto conduce a su vez al interes en especificaciones formales de estas funcionalidades. En el trabajo presentaremos tambien una especificacion en teoria de tipos de un prototipo de estandar de sistema operativo para tarjetas inteligentes.


Formulacion Co-recursiva de Recorridas sobre Arboles y Grafos =


Alberto Pardo

En programacion funcional es muy usual encontrar definiciones de funciones por recursion estructural sobre tipos de datos inductivos. = Tales definiciones reflejan (o son guiadas por) la estructura de los valores que se "consumen". Este patron de recursion es capturado por un operador llamado fold. La instancia mas conocida de fold es = sobre las listas (en que es llamado foldr). En forma dual, existe otra = clase de definiciones, no tan frecuentes como las anteriores, que = denominaremos como co-recursivas. Definiciones por corecursion reflejan, = no la estructura de los valores que se "consumen" como entrada, sino la = de los valores que se "generan" como salida. Como en el caso de las = definiciones por recursion estructural, tambien existe un operador, = llamado unfold, que captura el patron de definiciones por co-recursion. = Los operadores fold y unfold han sido recientemente foco de intensa = investigacion en diversas areas de la computacion. Ese es el caso, por = ejemplo, del area de transformacion de programas. En efecto, expresar = programas en terminos de fold y unfold ha demostrado ser de gran = ayuda para optmizar programas, debido a que poseen leyes (llamadas = "leyes de fusion") las cuales permiten eliminar varias de las estructuras= = de datos intermedias originadas en la composicion de funciones. En esta charla mostraremos como pueden ser formuladas en forma co-recursi= va recorridas sobre arboles y grafos. En particular, describiremos = los casos de recorridas a lo ancho (DFS) y en profundidad (BFS). Por = "recorrida" entenderemos una funcion que explora una estructura de datos = siguiendo cierta estrategia y retorna una lista conteniendo la informacio= n encontrada a lo largo del camino. = Mostraremos tambien una aplicacion de la ley de fusion del operador = unfold para el caso de BFS. =


Los M=E9todos Formales y el Testing no son el agua y el aceite =


Cristina Cornes

= La certificaci=F3n formal de programas y las t=E9cnicas de testin= g son dos enfoques que comparten un mismo objetivo: maximizar la calidad= del software. = En la charla se presentar=E1n conceptos b=E1sicos que se encuentran en la= = literatura sobre el disenio, evaluaci=F3n y gesti=F3n de tests de calid= ad. De estos tres procesos, la evaluaci=F3n de los tests tiene un car=E1cter primordial pues garantiza la calidad de los tests "Test cases, of = course, must be tested" [Yamaura98]. Los m=E9todos formales pueden ser =FAtiles en esta etapa de evaluaci=F3n.

Se presentara como ejemplo concreto, la evaluaci=F3n de tests para interfases graficas del estilo GUI. Hoy por hoy, gran parte del software dispone esta clase de interfase. En ciertos casos el testing de la interfase es una parte obligatoria de los tests del producto. En la presentaci=F3n se analizar=E1n algunas dificultades que se plantean= en el disenio y evaluaci=F3n de tests para estos programas. Se ver=E1 que hay lenguajes formales que son bien adaptados a la especificacion de interfases gr=E1ficas y que = dicha especificaci=F3n es de bajo costo y facilita considerablemente el disenio de los tests y su evaluaci=F3n.


Extraccion y Mantenimiento Dinamico de Datos de la Web

=
Daniel Viera

= Extracci=F3n y Mantenimiento Din=E1mico de Datos de la Web Resumen El presente trabajo de Taller V se sit=FAa dentro de un proyecto que tien= e por objetivo la creaci=F3n y mantenimiento de Data Warehouses a partir = de datos fuentes din=E1micos. Un caso de estudio de datos fuentes din=E1m= icos es la Web. La naturaleza de la Web nos lleva a trabajar con informac= i=F3n semi-estructurada y cambiante. Cada sitio presenta la informaci=F3n= en un formato diferente por lo que es necesario integrar dicha informaci= =F3n. = Basados en este caso, buscamos tener almacenado en una base de datos cons= olidada (data warehouse) la informaci=F3n de un dominio de inter=E9s que = es muy accedida en la Web. Esta informaci=F3n es necesaria obtenerla de v= arias fuentes de datos que por un lado se encuentran en diferentes sitios= y por otro que sus datos son semi-estructurados y var=EDan aut=F3nomamen= te con una alta frecuencia. Entre las ventajas de este enfoque encontramo= s: (1) disminuir la demora por transferencias a trav=E9s de la Web, (2) o= frecer una visi=F3n integrada de la informaci=F3n, (3) permitir un proces= amiento m=E1s complejo sobre la informaci=F3n de inter=E9s (4) evitar que= el usuario tenga que recorrer varios sitios peri=F3dicamente para obtene= r la informaci=F3n o detectar los cambios. Un ejemplo de aplicaci=F3n ser= =EDa la compra peri=F3dica de insumos por Internet, en la que ser=EDa nec= esario recorrer un conjunto de sitios para comparar precios y elegir el m= =E1s conveniente, o saber en cuales sitios de un conjunto dado encuentro = determinado producto. El objetivo de este trabajo es resolver la extracci=F3n de la informaci=F3= n desde la Web y la notificaci=F3n de los cambios para alimentar la base = de datos consolidada. Primero, realizamos un an=E1lisis y comparaci=F3n d= e distintas herramientas disponibles para extracci=F3n de informaci=F3n d= e la Web. Segundo, implementamos un prototipo para obtener a partir de un= a p=E1gina. en formato HTML y un esquema dado, la instancia del esquema c= on los datos hallados en la p=E1gina. Finalmente, analizamos el reconocim= iento, la detecci=F3n y tratamiento de los cambios en las p=E1ginas.


Aplicando integracion de esquemas en un contexto DW-WEB
Andrea do Carmo

Este trabajo se enmarca dentro del proyecto Dise=F1o y Mantenimiento di= n=E1mico de DW del grupo de Concepci=F3n de Sistemas de Informaci=F3n del Inco. El proye= cto trata la problem=E1tica de construir un Sistema de Data Warehousing a= partir de datos altamente din=E1micos, tanto en su contenido como en su = estructura. En particular se trata el caso en el que los datos fuentes s= e extraen de la World Wide Web. Un aspecto importante del proyecto es el mantenimiento din=E1mico y efici= ente del esquema del data warehouse (DW). Se entiende por mantenimiento d= in=E1mico la actualizaci=F3n del esquema del DW al producirse cambios en = los sitios Web mientras el sistema esta en producci=F3n. Para satisfacer = el requerimiento de eficiencia interesa que el proceso de propagaci=F3n d= e cambios sea un proceso incremental. Considerando la caracter=EDstica de volatilidad de la Web nuestra propues= ta consiste en la construcci=F3n de un esquema integrado a partir de los = sitios Web que sirva de esquema base para el dise=F1o del DW. Este esque= ma integrado permite optimizar la propagaci=F3n de cambios desde los siti= os Web hacia el DW distinguiendo entre cambios relevantes y no relevantes= al DW. Asimismo, la eficiencia en la propagaci=F3n de los cambios se ve = beneficiada por el uso de una metodolog=EDa de integraci=F3n incremental.= En este trabajo se analiza la aplicabilidad de una metodolog=EDa de integ= raci=F3n, SIM, pensada y desarrollada para contextos federados. SIM es un= a metodolog=EDa de integraci=F3n declarativa, semiautom=E1tica, que respe= ta la autonom=EDa de los esquemas locales (no los modifica en el proceso = de integraci=F3n), que trabaja sobre esquemas orientados a objetos y que = es parcialmente incremental. = Como resultado del an=E1lisis realizado se presentan propuestas tendiente= s a aumentar la adaptabilidad de SIM a las necesidades presentes en el co= ntexto DW-Web mencionado. En particular se presentan propuestas de c=F3mo utilizar dicha metodolog=ED= a como soporte para la propagaci=F3n de los cambios de las fuentes sobre = el DW. =


An Instance Mapping for Integrated Schemas


Regina Motz

= One approach to building a federation is by building = a ``tightly coupled'' federated schema. Logical heterogeneity in this approach can occur at two levels, namely sc= hema and instance level. = The resolution of schema level heterogeneity is known as "schema integrat= ion". The resolution of instance level heterogeneity is known as "instance = integration". = Most of the research in database integration focuses on schema integrati= on. It is commonly believed that instance integration can be easily performed= after = schema integration is completed. However, in addition to schema compatibility, instances corresponding to = the same real-world entity have yet to be identified and merged. The main contribution of this paper is the presentation of a semi-automat= ic = derivation of an instance mapping for the population of integrated classe= s, = attributes and relationships. In order to overcome data model heterogeneities among the different = component databases of a federation, we use the ODMG Data Model as = the common modelling framework. = ODMG supports types, classes, bidirectional relationships and operations= , = and provides an object-oriented query language OQL. = We show that the generation of integrated instances under the presence of= = generalization, class definition, specialization and relationship level = conflicts between the different databases, as well as the conflict that a= rises = when a class corresponds to a relationship, results in a different OQL = expressions for each case. Moreover, we show that the derived instance mappings are correct in the = sense that they consistently populate the integrated schema. We address the problem of identifying and integrating instances; = several other important issues such as automatic update of shared data, a= re not covered here. =


Proyecto: "Dise=F1o y Mantenimiento Din=E1mico de Data Warehou= ses - = - Aplicaci=F3n en el contexto de la Web"


Alejandro Gutierrez=
Regina Motz
Raul Ruggia

= Los Sistemas de Data Warehousing, o Bases de Datos Consolidadas, constitu= yen hoy en d=EDa la opci=F3n m=E1s aceptada para el apoyo a la toma de de= cisiones. En grandes organizaciones con alto grado de autonom=EDa en sus = dependencias se presenta el problema de la diversidad e inestabilidad de = los formatos, tanto l=F3gicos como f=EDsicos, de sus datos. Esta situaci=F3= n se vuelve a=FAn m=E1s compleja cuando se agrega la utilizaci=F3n de tec= nolog=EDas de tipo Intranet / Internet como fuentes de datos. Este proyecto aborda la problem=E1tica descripta a trav=E9s de la propues= ta de t=E9cnicas y herramientas para la construcci=F3n de Sistemas de Dat= a Warehousing (DW) basados en datos fuentes altamente din=E1micos, tanto = en su contenido como en su estructura. En particular, se trata el caso en= el cual los datos fuentes se extraen de la World Wide Web. En esta presentaci=F3n analizaremos las caracter=EDsticas que distinguen = a esta aplicaci=F3n de un contexto convencional de data warehousing. Dados los requerimientos de los sistemas de decisi=F3n y al posible alto = costo de acceso a los documentos y datos sobre la Web, nuestra propuesta = es materializar porciones de la Web de forma local, es decir mantener un= a copia local actualizada de un conjunto de datos de inter=E9s de la Web.= En esta presentaci=F3n describimos en l=EDneas generales la arquitectur= a seguida. Ella consiste de tres niveles: (1) Extracci=F3n, (2) Integraci= =F3n y Evoluci=F3n, (3) Dise=F1o y Mantenimiento del DW. Una caracter=EDstica relevante es la falta de control sobre los sitios fu= entes lo que dificulta el problema de mantenimiento de la informaci=F3n= materializada. Esto difiere del problema de materializaci=F3n en el cont= exto de bases de datos convencionales o a=FAn en el caso de manejo de inf= ormaci=F3n con leve estructuraci=F3n. Distintos trabajos en el contexto = de este proyecto analizan posibles soluciones a esta problem=E1tica. =


Looking inside the ANN "black box": classifying individual neuron= s as outlier detectors

= Looking inside the ANN "black box": classifying individual neurons as= outlier detectors CARLOS L=D3PEZ, Centro de C=E1lculo, Facultad de Ingenier=EDa, Montevideo= , URUGUAY Purpose: The main body of the literature states that Artificial Neural Ne= tworks must be regarded as a "black box" without further interpretation d= ue to the inherent difficulties for analyze the weights and bias terms. S= ome authors claim that ANN trained as a regression device tend to organiz= e itself by specializing some neurons to learn the main relationships emb= edded in the training set, while other neurons are more concerned with th= e noise also existing. Such statement is on principle speculative, and le= ft the researcher with the problem of identifying the "noise-related" neu= rons from the others. We proposed here a rule to identify them, and to us= e it to detect outliers in a large dataset of 30 years of daily precipita= tion records from 10 weather stations (WS) from Uruguay. The Monte Carlo = experiment compared state-of-the-art statistical methods for outlier dete= ction against our proposed method, producing very promising conclusions. Method: The original motivation was to eliminate missing values of the da= taset. Thus, for each WS, we trained an ANN to predict its daily precipit= ation values using as input records those available from other stations f= or the same date. Then available for further applications, we applied our= suggested rule for identifying the "noise related" neurons, and we assum= e that those neurons are activated only when some unusual values (or comb= ination of values) are present. If any of the 10 ANN (using each 9 out of= 10 WS values as inputs) activates its noisy neurons, we consider such da= te as candidate to hold an outlier. = In the experiment, we seed the dataset with outliers, and applied a detec= tion-correction-and further detection process for each method until the f= inishing criteria is satisfied. In the process, it is assumed that once a= date is selected as candidate, it can be corrected without error, which = in the statistical literature is known as the "perfect inspector" hypothe= sis. Such date cannot be chosen as a candidate again. Under such hipothes= is and given a measure of success, both a best and worst method can be de= fined; L=F3pez (1997) suggested that any other method can be ranked in be= tween according to a numerical index. The value 0.0 corresponds to the wo= rst method, and the value 1.0 to the best one; larger values are associat= ed with better methods, and the results will be presented according to th= is index. Success can be measured as the number of outliers still in the = dataset, the RMS of the differences between them and the correct values, = etc. = The proposed procedure was compared within a Monte Carlo framework with s= tate-of-the-art methods for outlier detection. In order to analyze a new = method for outlier location usually two aspects should be considered and = reported: a) its ability to detect known errors in a given dataset and b)= its requirements in computer resources. For the first aspect there exist= a number of widely available and well studied datasets. They are usually= very small (few dozens of events) so the methods are expected to discov= er all the known outliers in a single step. For a large dataset applicati= on like this, we found more realistic to discover the errors through a p= rocess instead of a single step operation; this will enable an optimizati= on of the human and computational resources involved as well. In an indus= trial size application it might be more important to find quickly the mos= t significant errors rather than all of the errors, opening room to diffe= rent measures of success. = Results: After more than 850 realizations, we concluded that our method o= utperformed the others in more than X per cent of the cases, being X in t= he range 28 to 99 depending on the measure of success used. This clearly = confirms that the noisy neurons have been identified, and that the ANN-ba= sed method for outlier detection should be seriously considered. New or breakthrough aspect of work: We found indirect support for the hyp= othesis about the specialization of the neurons in the ANN. In addition, = we proposed and tested a very crude rule for identify them, which success= fully compared with state-of-the-art methods widely known in statistics. = The use of the ANN as outlier detector does not require further training,= and can be easily applied. If the dataset is believed to have errors, fu= rther refinements in the training process might include removing dubious = values detected by the method, thus improving the quality of the ANN. = Conclusions: Given an ANN trained for other purposes, we were able to cla= ssify its neurons as related with noise. If the inputs hold outliers, we = assume that its effect are that the noisy neurons produce a substantially= higher-than-usual output. After a Monte Carlo experiment designed to tes= t and compare the method, the results show that: a) some evidence confirm= s the abovementioned assumption about the different roles of the neurons = b) our rule for classifying neurons as related with noise seems reliable = c) ANN-based outlier detection methods based upon our rule outperformed o= ther well established procedures. ANN are, however, harder to train and t= his has to be taken into account when comparing with standard outlier det= ection methods. = =


Una plataforma abierta para el desarrollo de software orientado a la= Educaci=F3n


Gustavo Crispino
Daniel Jenci

Primeramente, se analiza el contexto educativo actual en el =E1mbito re= gional y sus diversos problemas enfocando el centro de inter=E9s en los d= e naturaleza metodol=F3gica. Se plantea la introducci=F3n de la Inform=E1= tica como una de las respuestas posibles para nivelar la desventaja en qu= e se encuentran los medios educativos tradicionales frente los medios mas= ivos de comunicaci=F3n. = A continuaci=F3n, se analizan los productos de software educativo actuale= s, se describen las caracter=EDsticas que debe, a juicio de los autores, = tener un producto educativo y las posibilidades que ofrece Internet com= o plataforma de aplicaciones. = Se presenta una propuesta para construir un ambiente de desarrollo que po= nga al alcance del alumno un entorno de trabajo verdaderamente interactiv= o y personalizado. La plataforma en construcci=F3n tiene la estructura de un "bibliorato"(ca= rpeta de trabajos) en el cual est=E1 incluida una herramienta de generaci= =F3n de libros interactivos, as=ED como tambi=E9n los distintos libros ge= nerados (aplicaciones educativas espec=EDficas). El objetivo del Laboratorio de Inform=E1tica Educativa (Linfed) es que es= ta plataforma se pueda difundir (incluyendo o no la herramienta de genera= ci=F3n) al nivel de las distintas instituciones de ense=F1anza, como una = herramienta did=E1ctica que puede contribuir en el mejoramiento de la met= odolog=EDa del aprendizaje. =


Data Mining: Sistema de Toma de Deciciones en Medios Publici= tarios


Andromaca Tasistro
Esther Hochsztain

Data Mining: Sistema de toma de decisiones en medios publicitarios Esther Hochsztain Andr=F3maca Tasistro esther@fing.edu.uy tasistro@fing.edu.uy Facultad de Ingenier=EDa Universidad de la Rep=FAblica El objetivo de este trabajo es presentar un sistema de ayuda a la toma de= decisiones en publicidad utilizando t=E9cnicas de Data Mining. Este sist= ema se encuentra en las =FAltimas etapas de desarrollo. Un problema clave al que se enfrentan los publicistas es encontrar la com= binaci=F3n =F3ptima de medios publicitarios para alcanzar diversos p=FAbl= icos objetivo (target). Obviamente, lo que se trata de optimizar es la re= laci=F3n costo-beneficio. En este trabajo se presenta una soluci=F3n al problema planteado usando u= na estructura cl=E1sica de resoluci=F3n de problemas en Data Mining, que = consta de las siguientes etapas: definir el problema, identificar la var= iable objetivo, seleccionar datos, identificar factores, decidir pre-proc= esamiento, obtener los datos, analizar los datos, responder a la pregunta= original y presentar los resultados. Este sistema permite analizar la evoluci=F3n de la audiencia a lo largo d= el tiempo y de la programaci=F3n de cada medio (en los casos en que esto = es aplicable). Convierte los datos de las encuestas en informaci=F3n =FAt= il para la toma de decisiones. Los indicadores est=E1ndar de evaluaci=F3n= de medios se presentan en forma simple, compacta y organizada claramente= en informes y gr=E1ficamente. = En base a la informaci=F3n de diversas encuestas efectuadas, el sistema p= uede trabajar de dos formas: - ingresando el p=FAblico objetivo (target primario, secundario, terciari= o), los precios y el presupuesto disponible, obtiene la pauta =F3ptima. - ingresando la pauta se obtiene el p=FAblico asociado. En ambos casos se consideran los siguientes indicadores: porcentaje del u= niverso, puntos brutos de rating, porcentaje de cobertura neta, miles de = cobertura neta, tasa de repetici=F3n (con su correspondiente distribuci=F3= n de frecuencias), costo por PBR y por contacto En conclusi=F3n el sistema presentado permite evaluar, combinar y optimiz= ar las planificaciones de todas las combinaciones de medios publicitarios= =2E Incluye televisi=F3n, radio, carteles, diarios, revistas y publicacio= nes profesionales, de negocios, etc. Permite profundizar la comprensi=F3n= de los usuarios de la relaci=F3n entre el p=FAblico y los diferentes med= ios. A diferencia de otros sistemas que se utilizan actualmente, nuestro siste= ma de decisi=F3n en medios publicitarios permite analizar la evoluci=F3n = hist=F3rica de las variables consideradas, permitiendo incluso hacer proy= ecciones a futuro. =



= --------------ED62065C0CB999E78CA71D50--