CET 41
Revista de Ciencias Exactas e Ingeniería - Edición 2020
Revista de Ciencias Exactas e Ingeniería - Edición 2020
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
ISSN: 1668-9178
N°
41
AÑO XXIX
NOVIEMBRE 2020
REVISTA DE CIENCIAS EXACTAS E INGENIERÍA
N°
41
FACULTAD DE CIENCIAS EXACTAS Y TECNOLOGÍA
ISSN: 1668-9178
- Edición 2020 -
Año 29 Nº 41 / Noviembre 2020
Revista de propiedad de la Facultad de
Ciencias Exactas y Tecnología
Universidad Nacional de Tucumán
Tucumán – Argentina
Director Científico:
Dr. Ing. Nicolás Nieva
Directora Ejecutiva:
Prog. Univ. Fanny L. Díaz
ISSN 1668-9178
revista@herrera.unt.edu.ar
Autoridades de la Universidad Nacional de Tucumán
Rector Ing. José García
Vicerrector Ing. Sergio José Pagani
Autoridades de la Facultad de Ciencias Exactas y Tecnología
Decano Dr. Ing. Miguel Ángel Cabrera
Vicedecano Mg. Ing. Eduardo Martel
cet Revista de Ciencias Exactas e Ingeniería
Comité Editorial
Docentes e Investigadores de la Universidad Nacional de Tucumán, Facultad de Ciencias Exactas y
Tecnología
Dra. Ana María Sfer. Departamento de Matemática.
Dra. Ana Georgina Elías. Departamento de Física.
Dra. Mónica Cecilia Tirado. Departamento de Física.
Dr. César Francisco Medina. Departamento de Física.
Mg. Ing. Walter Weyerstall. Departamento de Electricidad, Electrónica y Computación.
Dr. Ricardo Díaz. Departamento de Electricidad, Electrónica y Computación.
Dra. Paula Zulema Araujo. Departamento de Ingeniería de Procesos y Gestión Industrial.
Ing. Sandra Corral. Departamento de Geodesia y Topografía.
Dr. Eduardo Roberto Manzano. Departamento de Luminotecnia, Luz y Visión.
Ing. Fernando Flores Blasco. Departamento de Mecánica.
Mg. Ing. Sergio Eduardo Gutiérrez - Departamento de Construcciones y Obras Civiles.
Dra. María Graciela Molina. Departamento de Ciencias de la Computación.
Producción:
Fanny Lía Díaz
41:(2020)
ISSN:1668-9178
Contenido
Editorial - 2
Nicolás Nieva
Investigación y Desarrollo
- Protocolo IPv6: fundamentos y aplicaciones - 3
Sergio Daniel Saade, Carlos Albaca Paraván, Federico Herman Lutz y Javier Ignacio Bilbao
- Refactorización del modelo de navegación en aplicaciones web de comercio electrónico - 15
Carlos Albaca Paraván
Informe Técnico
- Medición del diámetro de la pupila ocular con libertad de movimiento y flexibilidad técnica - 27
Juan Ignacio Contino y Andrés Martín
- Metodología para elaborar un plan de mantenimiento preventivo para equipos en un laboratorio de ensayos fisicoquímicos -
35
José Federico Alfaro, Nancy Alves, Berta E. Bello, Susana Chauvet y Julieta Migliavacca
Arte y Opinión
- Un soneto escrito en Semana Santa de 2004 - 43
Horacio Brizuela
Esta publicación figura en el Directorio de Latindex
Clasificación Decimal Universal (CDU): 001- 891
Director TEL. +54-381-4364093 - Interno: 7719
Asociación Cooperadora FACET: TEL. +54-381-4364093 - Interno: 7803
FAX: +54-381-4363004
E-mail: revista@herrera.unt.edu.ar
El contenido de los trabajos firmados no representa necesariamente la opinión del editor, siendo de exclusiva responsabilidad de los
autores.
Registro de Propiedad Intelectual: Nº 303943 - ISSN 1668-9178
Este número cerró el 30/11/2020 - Suscripción anual: $ 300
41:(2020)
ISSN:1668-9178
Editorial
El presente número de la Revista cet contiene trabajos
recibidos originalmente antes de la declaración de la
pandemia de COVID-19. Posteriormente a esta declaración,
siguió la comunicación entre autores, árbitros y
editores. Ahora bien, por las circunstancias especiales
vividas en los dos últimos años, este número 41 se indexa
y se corresponde con el año 2020. La paradoja
temporal a la que sometemos a nuestra revista para
ponerla en sincronía con el tiempo presente, hará que
el próximo número, 42, se indexe y se corresponda con
el año 2021. Los números 41 y 42 se pueden considerar
como de una etapa de transición de la revista, en
búsqueda de un horizonte de mayores certidumbres
externas que permitan una adecuada regularidad y
periodicidad.
Este número 41 contiene dos trabajos de investigación
y desarrollo (I+D), dos informes técnicos y una sección
de arte y opinión. En el primero de los trabajos,
titulado "Protocolo IPv6: fundamentos y aplicaciones",
los autores, S. Saade y colaboradores, exponen sobre
los aspectos más destacados del protocolo de direccionamiento
lógico y ruteo IPv6 y las principales diferencias
con el protocolo IPv4. Además, nos ilustran
acerca de la necesidad de reemplazo del primero por el
segundo debido a la superpoblación global de direcciones
IPv4 y sobre los primeros pasos de migración
que se están tomando en la Universidad Nacional de
Tucumán en este sentido.
En el segundo trabajo de I+D, "Refactorización del
modelo de navegación en aplicaciones web de
comercio electrónico", el autor C. Albaca Paraván
aborda los conceptos de modelos de una aplicación
web, usabilidad y refactorización, aplicados al proceso
de mejoramiento continuo de diseño de aplicaciones
de internet.
El informe técnico "Medición del diámetro de la pupila
ocular con libertad de movimiento y flexibilidad
técnica", de I. Contino y A. Martín, documenta el
trabajo hecho en la puesta a punto y diseño de un
protocolo para un sistema que toma medidas del
diámetro de la pupila de un sujeto mientras éste
realiza una tarea visual. Se expone también el diseño
de un protocolo para realizar estas mediciones.
Por su parte, en el otro informe técnico, titulado
“Metodología para elaborar un plan de mantenimiento
preventivo para equipos en un laboratorio de
ensayos fisicoquímicos”, los autores J. Alfaro y colaboradores,
proponen una metodología que permitiría
aumentar la eficiencia de la producción de resultados
de los estudios en un laboratorio que realiza determinaciones
fisicoquímicas y microbiológicas.
En este número, además, nuestro colega H. Brizuela
nos propone un ensayo literario, de abundante y
florida prosa en la descripción de paisajes norteños,
pero con un poético final de sello borgeano.
El aforismo de Marshall McLuhan, “el medio es el
mensaje”, es quizás como nunca antes, el lema y el
encanto de las ciencias de la comunicación contemporáneas.
Nos interpela desde la pregunta: ¿La forma
de adquirir la información nos afecta tanto o más que
el contenido de la información? Pues bien, así pareciera
ser. La manera de percibir ciertas realidades
estaría en relación directa con la configuración, textura
y forma de comunicar e informar. Es ineludible,
entonces, fortalecer y ampliar el formato de un intercambio
signado por la filosofía y la estética de las redes
de internet. Sin perder el valor, el rigor y el compromiso
de los contenidos, nuestra querida revista se orientará
hacia ese norte, en busca de acompañar a la marca de
los tiempos. Más novedades, en este sentido, se percibirán
en el transcurso del año 2022.
Nicolás Nieva
Director Científico de “cet”
02
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Protocolo IPv6: fundamentos y aplicaciones
Sergio Daniel Saade, Carlos Albaca Paraván, Federico Herman Lutz y Javier Ignacio Bilbao
Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán, Tucumán, Argentina.
Resumen
El protocolo IPv6 fue estandarizado en el año 1998; sin embargo, su adopción comenzó a realizarse en forma
masiva unas dos décadas después. Con este protocolo se soluciona principalmente el problema de la falta de
direcciones IPv4 (públicas), que son utilizadas para el acceso global a Internet. El presente trabajo expone
sintéticamente los aspectos más destacados del protocolo IPv6, las principales diferencias con IPv4, los
diferentes tipos de direcciones IPv6, los mecanismos básicos para brindar direccionamiento automático a los
nodos que componen una red privada y ciertas modificaciones que se realizaron en la estructura completa de
los protocolos TCP/IP para su correcto funcionamiento. El trabajo también expone el desarrollo de un proyecto
para la migración de la infraestructura de la red privada de la Universidad Nacional de Tucumán hacia este
protocolo.
Palabras clave: IPv6, direccionamiento IPv6, migración IPv6.
IPv6 Protocol: fundamentals and applications
Abstract
The IPv6 protocol was standardized in 1998; however, its adoption began to take place on a massive scale
approximately two decades later. This protocol mainly solves the problem of the lack of (public) IPv4 addresses,
which are used for global Internet access. The present work summarizes the most outstanding aspects of the
IPv6 protocol, the main differences with IPv4, the structure of the different types of IPv6 addresses, the basic
mechanisms for providing automatic addressing to the nodes that conform a private network, and certain
modifications that were made to the complete structure of the TCP/IP protocols for their correct operation. The
paper also describes the development of a project for migrating the infrastructure of the private network of the
Universidad Nacional de Tucumán to this protocol.
Keywords: IPv6, IPv6 addressing, IPv6 migration.
03
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Introducción
Deering y Hinden (1998) estandarizaron el protocolo
IPv6 mediante el RFC 2460 y fue creado con la
intención de reemplazar a la versión 4 del protocolo IP
que hoy en día se utiliza mayormente como acceso a
Internet. La necesidad del cambio apareció principalmente
por el agotamiento global de direcciones
IPv4.
El Registro de Direcciones de Internet de América
Latina y Caribe (2020) informó que, en nuestro contexto
regional, a mayo de 2020 la distribución de
direcciones IPv4 públicas se encuentra en un alto
grado de agotamiento (Fase 3).
Pese a que el protocolo IPv6 tiene más de dos décadas
de estandarización, su adopción comenzó en forma
medianamente masiva desde la mitad de la década
pasada, cuando los principales centros regionales de
registro de direcciones (RIR) comenzaron a entrar en
fase de agotamiento de direcciones IPv4 públicas. Si se
observa la figura 1, Google (2020), se tiene un creci-
miento sostenido del uso de IPv6 a partir del 2015. Se
espera un crecimiento aún mayor con la progresiva
implementación de soluciones de IoT (Internet de las
Cosas) y asociadas, como así también con la extenuación
completa de direcciones IPv4.
En nuestro país, la adopción de IPv6 a mayo de 2020 es
de aproximadamente un 11%. Nader et al. (2015)
muestran el estado de implementación de IPv6 en
nuestro país en 2015, concluyéndose en el mismo una
falta total de uso del mismo. Actualmente, en la República
Argentina solo pueden contratar accesos a IPv6
clientes corporativos, quedando excluido por el momento
el acceso domiciliario, excepto en grandes urbes
como CABA.
Los objetivos de este trabajo son, en primer lugar mostrar
los principales cambios entre el protocolo IPv4 e
IPv6, no solo en el sistema de direccionamiento sino
también en otros protocolos del stack TCP/IP, para finalizar
detallando la implementación del mismo en la red
de la Universidad Nacional de Tucumán.
Fig. 1 Adopción de IPv6 para acceso a Internet a través del tiempo.
04
Sergio Daniel Saade, Carlos Albaca Paraván, Federico Herman Lutz y Javier Ignacio Bilbao
41:(2020)
ISSN:1668-9178
Principales cambios de IPv6 sobre IPv4
Saade (2016) describe las principales diferencias entre
IPv6 e IPv4, las cuales son:
ŸEspacio de direcciones expandido: la longitud del
campo dirección cambia de 32 bits a 128 bits.
ŸArquitectura de direccionamiento mejorada: además
de un incremento en el espacio de direcciones,
éstas poseen una estructura que permite ser subdividida
en dominios de enrutamiento jerárquico que
reflejan la topología real y actual de Internet.
ŸEncabezado más eficiente: se eliminaron algunos
campos de encabezamiento IPv4, agilizando el procesamiento
de paquetes en los routers. Por otra parte, las
opciones en caso de existir, son ubicadas en cabeceras
de extensión (extension headers) al final del encabezamiento
obligatorio.
ŸSeguridad: se utiliza (como cabecera de extensión,
es decir en forma opcional) el protocolo IPSec.
Dentro de los cambios mencionados, el más importante
es el del direccionamiento, a desarrollarse con
ciertos detalles en el presente artículo.
Direccionamiento IPv6
El principal cambio entre IPv6 e IPv4 radica en el direccionamiento:
las direcciones IPv6 tienen una longitud
de 128 bits y su arquitectura difiere considerable-
mente sobre la de IPv4. Incluso la representación es diferente:
una dirección IPv6 es representada con 32 dígitos
hexadecimales, separándose cada 4 dígitos (hexteto)
con un carácter de dos puntos “:”. De esta forma
una dirección IPv6 queda representada por 8 grupos
de 4 dígitos hexadecimales (8 hextetos).
Por ejemplo, la siguiente es una dirección IPv6:
FF02:0000:0000:0000:0000:0000:0000:0001
Para facilidad en la lectura y escritura, se introdujeron
dos formas de abreviatura:
1. Reducción de ceros más significativos de cada
grupo de 4 dígitos: escribiéndose en ese caso, solo a
partir del dígito distinto de cero.
2. Eliminación de un hexteto con todos 0's: en éste
se pueden escribir simplemente dos caracteres “:” en
forma consecutiva.
Usando ambas reglas, la dirección del ejemplo quedaría
escrita en forma abreviada:
FF02::1
Existen tres tipos de direcciones IPv6: direcciones
unicast, multicast y anycast. No existen las direcciones
broadcast siendo reemplazadas por tipos especiales de
direcciones multicast. La figura 2 muestra esquemáticamente
las diferentes direcciones IPv6.
Fig. 2 Clasificación de direcciones IPv6.
05
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Una dirección IPv6 unicast identifica a una interfaz en
un dispositivo más que a un dispositivo en sí. De
hecho, una interfaz física tiene varias direcciones IPv6
asociadas. Dentro de las direcciones unicast las más
destacables son las globales (global unicast) y las de
enlace local (link-local), que se verán a continuación
con mayor detalle.
Direcciones unicast globales
Las direcciones unicast globales son direcciones globalmente
alcanzables en Internet, es decir equivalen a
las direcciones IPv4 públicas. Poseen la estructura
mostrada en la figura 3.
Se distingue a estas direcciones porque los tres
primeros bits tienen el valor 001 (rango del primer
hexteto de 2000 a 3FFF).
La primera porción de la dirección es lo que se denomina
prefijo de ruteo global. Este prefijo es el identificador
de red (NetID) y es otorgada por un RIR (o un
ISP). Típicamente tiene un tamaño de 48 bits (n = 48
en la figura 3).
Luego del prefijo de ruteo global, la dirección continúa
con el ID de subred: a diferencia de IPv4, en IPv6 el
identificador de subred es un campo separado y no
forma parte de la porción del identificador de nodo.
Típicamente esta porción posee un tamaño de 16 bits
(m = 16 en figura 3). El prefijo global de ruteo junto
con el identificador de subred compone lo que se llama
prefijo de subred (la cantidad de bits de éste, constituye
lo que se conoce como longitud del prefijo de
red).
Finalmente se encuentra la porción de InterfazID, equivalente
a la dirección del nodo propiamente dicha de
IPv4. Normalmente este campo posee un tamaño de
64 bits para poder utilizar un esquema de direccionamiento
automático para la generación del
InterfazID.
Un aspecto que debe destacarse en IPv6 es que los
nodos privados tienen configurados una dirección
unicast global. Es decir, los dispositivos privados son
accesibles desde la red pública. No existe el concepto
de direcciones públicas y privadas, como así tampoco
el uso de NAT para su traducción. Si bien esto tiene
como desventaja el hecho de que las interfaces están
expuestas al mundo a través de Internet, no se utilizan
los mecanismos de traducción de direcciones, que
imponen ciertos retardos y por lo tanto latencias en las
aplicaciones.
Direcciones unicast de enlace local
Las direcciones de enlace local son direcciones unicast
confinadas a un único enlace o subred, es decir, un
paquete que posee una dirección de este tipo como
dirección destino, no puede atravesar un router. Estas
direcciones se crean automáticamente con la habilitación
de IPv6 en una interfaz. Por lo tanto, un dispositivo
tiene mínimamente dos direcciones IPv6 unicast
asignadas: una global y una de enlace local.
La principal ventaja de estas direcciones es que un
dispositivo la crea en forma automática cuando se
activa IPv6. Su uso es amplio: por ejemplo, en la
configuración automática de direcciones, como parte
del protocolo NDP (Neighbor Discovery Protocol) y
también para la comunicación entre nodos de una
misma subred.
El formato de estas direcciones se muestra en la figura
4.
Prefijo de Subred
(64 bits)
n bits
(48 bits)
m bits
(16 bits)
(128-m-n) bits
(64 bits)
001
Prefijo de Ruteo Global
Subnet
ID
ID de Interfaz
Fig. 3 Estructurada de IP unicast global.
06
Sergio Daniel Saade, Carlos Albaca Paraván, Federico Herman Lutz y Javier Ignacio Bilbao
41:(2020)
ISSN:1668-9178
10 bits 54 bits remanentes 64 bits
1111111010
(FE80::/10)
ID de Interfaz
(EUI-64, Random o Estática)
Fig. 4 Formato de direcciones unicast de enlace local (link-local).
Se observa que estas direcciones tienen un prefijo de
10 bits (1111 1110 10), con los 54 bits restantes del
prefijo de red (/64) con valor cero. El ID de interfaz
(últimos 64 bits) puede ser obtenido por tres métodos:
ŸEstático o manual, es decir configurado a través del
administrador
ŸUsando el algoritmo EUI-64, basado en la MAC de la
interfaz (Hinden and Deering (1998)).
ŸAleatorio
La figura 5 muestra un ejemplo de una red con el uso
de ambos tipos de direcciones IPv6.
Fig. 5 Ejemplo de direccionamiento IPv6 en una red privada.
07
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Direcciones multicast
Este mecanismo de direccionamiento y difusión de paquetes,
permite que un dispositivo envíe un único paquete
a múltiples destinos. Para identificar el grupo de
dispositivos (receptores), se utilizan las direcciones
multicast.
El esquema de direccionamiento multicast en IPv6 es
mucho más refinado y complejo que en IPv4. La figura
6 muestra el esquema de este tipo de direcciones.
Estas direcciones comienzan con el prefijo FF::/8. Luego
sigue el campo flag, de cuatro bits, que indica el
tipo de dirección multicast, habiéndose definido por el
momento sólo dos:
ŸDirecciones multicast permanentes: valor 0 del
flag. Son direcciones públicas o bien conocidas,
asignadas por IANA.
ŸDirecciones multicast transitorias o dinámicas:
valor 1 del flag. Estas direcciones son asignadas por
aplicaciones a medida que se van creando los grupos
de multidifusión.
A continuación, se encuentra el campo de ámbito (4
bits). Este campo indica el rango de cobertura del
paquete multicast (por ejemplo, subred, toda la red
privada, etc.). De esta forma se reemplazan los
broadcasts, generándose un paquete multicast dirigido
a todos los nodos de la subred.
Finalmente, la dirección contempla al identificador de
grupo de multidifusión de 112 bits de longitud.
Direcciones anycast
Tienen el mismo significado que en IPv4, es decir son
direcciones unicast idénticas asignadas a más de un
nodo físicamente diferente. El paquete IP cuya dirección
destino es anycast, se entrega a aquel cuya
métrica de ruteo es la mejor. Es utilizada principalmente
para el acceso a réplicas de servidores DNS.
Direccionamiento automático
Las direcciones IPv6 unicast globales pueden configurarse
en forma automática sin la intervención de un
administrador. Existen dos métodos para dicha
configuración:
Ÿ Autoconfiguración de direcciones sin estado
08
(SLAAC - StateLess Address Auto Configuration):
con este método, se obtiene el prefijo de red (y su
longitud) de un router mediante un mensaje ICMPv6
1
denominado Router Advertisement (RA). El ID de interfaz
se genera en forma aleatoria o utilizando el
algoritmo EUI-64.
ŸDHCP: utiliza el protocolo DHCPv6 que es similar al
protocolo DHCP para IPv4.
SLAAC
SLAAC está definido por Thomson et al. (2007) en el
2
RFC 4862 . Este método permite obtener direcciones
denominadas sin estado, porque ningún dispositivo
(servidor, router, etc.) mantiene una base de datos
unificada con las direcciones otorgadas a los clientes.
El prefijo de red y su longitud es entregado por un
router, y el ID de interfaz se obtiene a partir de la
dirección MAC del nodo (utilizando algoritmo denominado
EUI-64 modificado) o en forma aleatoria (dependerá
del sistema operativo del cliente).
La figura 7 muestra resumidamente el proceso SLAAC.
Cuando PC1 inicia el proceso de arranque envía un
mensaje de Router Solicitation (RS). El router R1 responde
a RS con un mensaje RA (Router
Advertisement). Dentro del mensaje RA está el prefijo
de red y su longitud, la dirección del router por
defecto, el tiempo de vida de la dirección y otros
parámetros.
PC1 al recibir el RA, adquiere el prefijo de red
(2001:8BFA:1000:1/64). Luego, completa la dirección
IPv6, generando el ID de interfaz. En el ejemplo de la
figura 7 utiliza el método EUI-64 modificado. Por lo
tanto, la dirección IPv6 autoconfigurada resulta:
2001:8BFA:1000:1:22A:C8FF:FEF3:4853
La dirección obtenida permanece en un estado que se
denomina tentativo hasta que se verifica su unicidad
mediante el proceso de detección de dirección duplicada
DAD (Duplicate Address Detection). DAD tiene
un principio de funcionamiento simple: el nodo que
necesita descubrir si existe duplicidad, envía en un
3
mensaje de multidifusión su propia IPv6. Para ello
1 . Tanto RA como RS son mensajes ICMPv6 y forman parte de NDP.
2 . Originalmente definido el mismo año de la creación de IPv6 a través
del RFC 1971. Es decir, IPv6 nació con SLAAC como mecanismo
de direccionamiento automático.
3 . Es interesante destacar que para todo este proceso de SLAAC no se
utiliza el mecanismo de direccionado de broadcast, sino direccionamiento
multicast.
Sergio Daniel Saade, Carlos Albaca Paraván, Federico Herman Lutz y Javier Ignacio Bilbao
41:(2020)
ISSN:1668-9178
8 bits 4 bits 4 bits 112 bits
11111111
(FF::/8)
Flag
Ámbito
ID de Grupo
Fig. 6 Formato de direcciones multicast.
Fig. 7 Mecanismo SLAAC para obtención de direcciones IPv6.
utiliza un mensaje del protocolo ICMPv6 Neighbor
Solicitation (NS) que consulta si algún otro dispositivo
usa dicha IPv6. Si ningún dispositivo contesta dentro
de un cierto período de tiempo, se considera que no
hay duplicidad de dirección. Si algún dispositivo está
utilizando dicha dirección, contestará con un mensaje
de Neighbor Advertisement (NA) y se abortará su uso.
Una vez detectada la unicidad de la dirección IPv6, la
misma pasa del estado tentativo al preferido y puede
ser utilizada.
DHCPv6
Un nodo al estar configurado para obtener su dirección
en forma automática utilizará el proceso SLAAC o
DHCPv6 dependiendo de ciertos parámetros de configuración
del router.
En el caso que se indique obtener la dirección IPv6 vía
DHCPv6, el nodo realiza un intercambio de mensajes
especificado por este protocolo, obteniéndose la
dirección completa junto con las opciones especificadas
en el servidor, Mrugalski et al. (2018).
El protocolo DHCPv6 se asemeja al protocolo DHCP
para IPv4, Saade et al. (2015) realizan un estudio
comparativo entre ambas versiones.
Existen dos particularidades de este protocolo que son
09
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
importantes de destacar:
ŸDentro de las opciones que ofrece DHCPv6, no se
encuentra la dirección del router por defecto ya que la
misma es obtenida del mensaje RA inicial.
ŸDHCPv6, hasta la fecha, no está soportado por el
sistema operativo Android. Por lo que en una red que
emplee tabletas, celulares, y otros dispositivos con
este sistema operativo deberá utilizarse SLAAC.
Deben tenerse en cuenta estas dos consideraciones en
implementaciones reales de configuración automática
de direcciones IPv6, permitiendo incluso seleccionar
el uso de SLAAC o DHCPv6 como mecanismo de
direccionamiento automático.
Finalmente, dependiendo de ciertos flags del mensaje
RA y del sistema operativo cliente, es posible obtener
una dirección tanto por SLAAC como por DHCPv6 (en
ese caso una interfaz tendría asociada dos direcciones
unicast globales).
Modificaciones del resto del stack TCP/IP
Debido a la inclusión de IPv6 en el stack de protocolos
TCP/IP, se generó la necesidad de modificar el funcionamiento
de ciertos protocolos del resto de la arquitectura.
Resumidamente, algunas de las principales modificaciones
que se realizaron en toda la suite TCP/IP para
lograr el funcionamiento global de la arquitectura con
IPv6 son:
ŸEl protocolo ARP que traduce direcciones IPv4 a direcciones
MAC fue reemplazado por mensajes NDP
que realizan tal traducción.
ŸEl proceso de ruteo sigue siendo el mismo que en
IPv4. Las tablas de ruteo se pueden crear y mantener
en forma manual (ruteo estático) y/o en forma automática
(ruteo dinámico) con el uso de protocolos de
ruteo. Estos últimos fueron adaptados de IPv4 a IPv6,
por lo que ahora se tienen nuevas versiones de dichos
protocolos como, por ejemplo, para el caso de ruteo
interior a RIPng (RIPv3), OSPFv3 o EIGRPv6 (propietario
de Cisco) o en el caso de ruteo exterior a BGP-4.
ŸLos protocolos de transporte no alteran en nada su
funcionamiento con IPv6. Es decir, no fue necesario
realizar ninguna modificación en TCP y UDP, excepto
por el cálculo del checksum de los encabezamientos.
Particularmente en el caso de UDP, es obligatorio
realizar el cómputo del checksum en su cabecera, ya
10
que el encabezamiento IPv6 no provee dicho campo.
ŸDNS introduce un nuevo registro denominado AAAA
que permite la resolución de nombres a direcciones
IPv6. También se introducen reglas para el retorno de
direcciones IPv6 e IPv4 en caso que un mismo nombre
de nodo, posea ambas traducciones. El espacio de
nombre para la traducción inversa de direcciones fue
creado debajo de un nuevo dominio denominado
ip6.arpa.
Implementación de IPv6 en la UNT
En el año 2016 desde el Laboratorio de Redes de Computadoras
de la Facultad de Ciencias Exactas y Tecnología
(FACET), se lideró un proyecto de planificación e
implementación de IPv6 en la Universidad Nacional de
Tucumán, FRIDA (2016). Dicho proyecto contó con el
auspicio de LACNIC a través del Programa FRIDA (Fondo
para el Fortalecimiento de Internet en América
Latina y el Caribe).
El proyecto (Saade et al. (2017)) de un año de duración,
permitió la adquisición de equipamiento de red
de última generación y prestaciones para el soporte de
IPv6, tanto en el Centro Herrera como en Rectorado de
la UNT y para experimentación dentro del mencionado
laboratorio.
La figura 8 muestra el diagrama general de la red de la
UNT al día de hoy. Como se observa, se poseen dos
accesos a IPv6: a través de RIU (Red Interuniversitaria)
con prefijo de ruteo global 2800:110:3E00::/48 y a
través de Telecom con prefijo 2001:13d1:3c02::/48.
Dentro de la FACET, tanto los servidores que albergan
los sitios web de las Facultades de Ciencias Exactas y
Tecnología, Ciencias Económicas y Arquitectura y Urbanismo
de la UNT, como el servidor DNS autoritativo
para dichos dominios soportan ambos protocolos
(IPv4 e IPv6). Es decir, cualquier cliente a nivel mundial
podrá acceder a estos servidores con el uso de IPv6 en
forma nativa.
Dentro de la FACET, si bien se implementó y adecuó
toda la infraestructura de servicios para soporte de
IPv6, la diversidad de clientes (en Hardware, Software
y sistemas operativos), no permite por el momento
realizar el despliegue completo; solamente se está empleando
de manera académica IPv6 dentro del Laboratorio
de Redes de Computadoras mediante el uso de
un router propio y entregando las direcciones por el
método de SLAAC.
41:(2020)
ISSN:1668-9178
Sergio Daniel Liliana Saade, del Carlos Valle Abascal, Albaca Paraván, Gustavo Federico González Herman Bonorino, Lutz Pablo y Javier Agustín Ignacio Arévalo, Bilbao
Lidia María Benítez y Sonia Bibiana Benítez
Fig. 8 Diagrama general de la red UNT con direccionamiento IPv6.
Conclusiones
La implementación a nivel mundial de IPv6 como protocolo
de direccionamiento lógico y ruteo viene creciendo
sostenidamente, debido al agotamiento de direcciones
IPv4. Nuestro país no es ajeno a dicha realidad,
con oferta por parte de las empresas de telecomunicaciones
de accesos al backbone IPv6 a través
de diferentes modalidades tanto para clientes corporativos
como hogareños (Claro, desde mayo de 2020,
empezó un proceso de implementación paulatina del
protocolo, brindando direccionamiento IPv6 a algunos
clientes de diferentes zonas de San Miguel de
Tucumán y Yerba Buena).
11
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Por otra parte, es importante ir adecuando las redes
privadas para el uso de dicho protocolo en forma nativa.
Si bien existen técnicas de traducción y de tunelizado
de IPv4 a IPv6, lo ideal es acceder al backbone
con el uso de IPv6 nativo, disminuyendo de esa forma
la sobrecarga que imponen estos métodos.
La Universidad Nacional de Tucumán (UNT) no es ajena
a dicha realidad; con un total de más de diez mil
clientes distribuidos en los sitios mostrados en la figura
8, debe adecuar su infraestructura de red para el
soporte de IPv6.
Este artículo muestra en forma sintética las principales
características de IPv6, ejemplificando con la UNT los
primeros pasos de migración que se están tomando en
ese sentido.
Las principales conclusiones son:
ŸSi bien el cambio de IPv4 no es urgente, debe ser
analizado y planificado por los administradores de
redes privadas, para una transición escalonada.
ŸEn la UNT se encuentra diseñado un esquema general
de migración con pruebas de campo y laboratorio;
además con algunas redes y servidores en funcionamiento
con este protocolo.
ŸEn la planificación, no solo se debe tener en cuenta la
adecuación de equipamiento de comunicaciones sino
también la adecuación de sistemas operativos de servidores
y de clientes, con su correspondiente configuración.
ŸPuesto que esa adecuación conlleva un gran coste y
tiempo de implementación, debe existir una coexistencia
de ambos protocolos IP, por ejemplo, utilizando
técnica de doble pila (Saade (2016)). Con la coexistencia
de protocolos, se puede obtener acceso a
aquellos servidores públicos que aún no ofrecen
servicios sobre IPv6.
ŸLa capacitación es fundamental para el diseño e implementación
de redes IPv6. En ese sentido, dentro de
la asignatura “Protocolos de Comunicación TCP/IP” de
la carrera Ingeniería en Computación, se viene enseñando
la temática en forma sostenida y con profundidad
desde el año 2017.
ŸExisten recursos humanos dentro de la FACET con
conocimientos y experiencia para la migración a IPv6 y
también para brindar capacitación a personal del área
informática dentro y fuera de la UNT. De esta manera
se puede vincular la Unidad Académica con empresas
e instituciones del medio.
Referencias Bibliográficas
Deering, S y Hinden, R. (1998) “RFC 2460: Especificación Protocolo Internet, Versión 6 (Ipv6)”. Documentos
RFC en español [en línea]. Disponible en: https://www.rfc-es.org/rfc/rfc2460-es.txt [Accedido el 13/05/2020].
FRIDA (2016) “Despliegue de IPv6”. LACNIC FRIDA [en línea]. Disponible en:
http://programafrida.net/archivos/project/despliegue-de-ipv6 [Accedido el 13/05/2020].
G o o g l e ( 2 0 2 0 ) “A d o p c i ó n d e I P v 6 ” . G o o g l e I P v 6 [ e n l í n e a ] . D i s p o n i b l e e n :
https://www.google.com/intl/es/ipv6/statistics.html [Accedido el 13/05/2020].
Hinden, R. and Deering, S. (1998) “RFC 2373: IP Version 6 Addressing Architecture”. IETF Tools [en línea].
Disponible en: https://datatracker.ietf.org/doc/html/rfc2373 [Accedido el 13/05/2020].
Mrugalski, T., Siodelski, M., Volz, B., Yourtchenko, A., Richardson, M., Jiang, S., Lemon, T. and Winters,
T. (2018) “Dynamic Host Configuration Protocol for IPv6 (DHCPv6)”. IETF Tools [en línea]. Disponible en:
https://tools.ietf.org/html/rfc8415 [Accedido el 13/05/2020].
Nader, F., Saade, S. y Bilbao, J. (2015) “Estado de implementación de IPv6 en Argentina”, Investigaciones
en Facultades de Ingeniería del NOA, pp. 483-490.
12
41:(2020)
ISSN:1668-9178
Sergio Daniel Liliana Saade, del Carlos Valle Abascal, Albaca Paraván, Gustavo Federico González Herman Bonorino, Lutz Pablo y Javier Agustín Ignacio Arévalo, Bilbao
Lidia María Benítez y Sonia Bibiana Benítez
Registro de Direcciones de Internet de América Latina y Caribe - LACNIC (2020) “Fases de Agotamiento
de IPv4” [en línea]. Disponible en: https://www.lacnic.net/1001/1/lacnic/fases-de-agotamiento-de-ipv4
[Accedido el 13/05/2020].
Saade, S., Albaca Paraván, C., Lutz, F. y Gallardo, A. (2015) “DHCPv6: Una comparativa con DHCPv4”,
Investigaciones en Facultades de Ingeniería del NOA, pp. 483-490.
Saade, S. (2016) Protocolos de comunicación en Internet, Editorial EDUNT, Argentina.
Saade, S., Bilbao, J., Albaca Paraván, C., Lutz, F., Dip, R. y Berettoni, M. (2017) Despliegue del protocolo
IPv6 en la red de la Universidad Nacional de Tucumán, En: 1er. Congreso Latinoamericano de Ingeniería
(CLADI), Entre Ríos, Argentina, pp. 1142-1145.
Thomson, S., Narten, T. and Jinmei, T. (2007) “RFC 4862: IPv6 Stateless Address Autoconfiguration”. IETF
Tools [en línea]. Disponible en: https://tools.ietf.org/html/rfc4862 [Accedido el 13/05/2020].
Este trabajo se realizó en la Facultad de Ciencias Exactas y Tecnología de la Universidad Nacional de Tucumán,
en el marco del Proyecto de Investigación “Comunicaciones y aplicaciones de Internet de las Cosas”, PIUNT
E652/2, que forma parte del programa “Internet de las Cosas: desde los Sistemas Embebidos a las
Aplicaciones”.
Sergio D. Saade
Ingeniero Electricista (Or. Electrónica), graduado de la Facultad de Ciencias
Exactas y Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT) y
M.Sc. en “Electrical and Computer Engineering”, University of California.
Profesor Titular, dedicación exclusiva (UNT). Director de la Especialización de
Posgrado en Integración de Tecnologías Informáticas. Director de Programa de
Investigación “Internet de las Cosas: desde los Sistemas Embebidos a las
Aplicaciones”, PIUNT E652 (2018-2022). Participó en diversas actividades de
extensión y vinculación. Publicó diferentes trabajos de investigación y artículos
en revistas, ademas de 2 (dos) libros de texto del Área Computación.
Contacto vía e-mail a: ssaade@herrera.unt.edu.ar
Carlos Albaca Paraván
Ingeniero en Computación, graduado de la Facultad de Ciencias Exactas y
Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT) y Magister en
Ingeniería de Software. Jefe de Trabajos Prácticos, dedicación exclusiva (UNT).
Docente de la Especialización de Posgrado en Integración de Tecnologías
Informáticas. Participante del Programa de Investigación “Internet de las Cosas:
desde los Sistemas Embebidos a las Aplicaciones”, PIUNT E652 (2018-2022).
Participó en diversas actividades de extensión y vinculación. Publicó diferentes
trabajos de investigación y artículos en revistas.
Contacto vía e-mail a: calbaca@herrera.unt.edu.ar
13
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Federico Herman Lutz
Ingeniero en Computación, graduado de la Facultad de Ciencias Exactas y
Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT). Jefe de
Trabajos Prácticos, dedicación media (UNT). Alumno de la Especialización de
Posgrado en Integración de Tecnologías Informáticas. Participante del
Programa de Investigación “Internet de las Cosas: desde los Sistemas
Embebidos a las Aplicaciones”, PIUNT E652 (2018-2022). Participó en diversas
actividades de extensión y vinculación. Publicó diferentes trabajos de
investigación y artículos en revistas.
Contacto vía e-mail a: fhlutz@herrera.unt.edu.ar
Javier Ignacio Bilbao
Ingeniero en Computación, graduado de la Facultad de Ciencias Exactas y
Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT). Jefe de
Trabajos Prácticos, dedicación media (UNT). Participante del Programa de
Investigación “Internet de las Cosas: desde los Sistemas Embebidos a las
Aplicaciones”, PIUNT E652 (2018-2022). Participó en diversas actividades de
extensión y vinculación. Publicó diferentes trabajos de investigación y artículos
en revistas.
Contacto vía e-mail a: jibilbao@herrera.unt.edu.ar
www.facet.unt.edu.ar/revistacet
14
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Refactorización del modelo de navegación en
aplicaciones web de comercio electrónico
Carlos Albaca Paraván
Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán, Tucumán, Argentina.
Resumen
Palmer (2002), señala que, en los últimos años, la World Wide Web incrementó su tamaño, llegando a más 200
millones de sitios, pero el número real de páginas, sitios y aplicaciones web se incrementó aún más. En este
marco, la usabilidad ha recibido especial atención, tomando típicamente un enfoque de ingeniería en un
intento de identificar un conjunto de principios y prácticas comunes que aseguren que la usabilidad es el
resultado del diseño del sistema. La intención del presente trabajo es definir una aplicación web y sus modelos,
luego introducir la noción de usabilidad, presentar un conjunto de refactorización para el modelo de
navegación de los sitios de comercio electrónico, finalizando con la evaluación de la mejora de la usabilidad en
los sitios.
Palabras clave: usabilidad web, modelo de navegación, refactorización, ingeniería de software.
Navigation Model Refactoring in E-Commerce Web Applications
Abstract
Palmer (2002) points out that in recent years, the World Wide Web has increased in size, reaching over 200
million sites. Indeed, the actual number of pages, sites, and web applications has increased even further. In this
framework, usability has received special attention mainly in the form of an engineering approach as an
attempt to identify a set of common principles and practices that ensure usability is the result of system design.
This work intends to define a web application and its models, then to introduce the notion of usability, present
a set of refactoring for the navigation model of e-commerce sites, ending finally with the evaluation of
usability improvement in the sites.
Keywords: web usability, navigation model, refactoring, software engineering.
15
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Introducción
Ziemer (2002) enuncia que el propósito original de la
World Wide Web se limitó a presentar la información,
pero que hoy en día las aplicaciones web modernas se
han convertido en complejas aplicaciones distribuidas.
Esto es reafirmado por Hassan (2001) que indica que
las aplicaciones web representan más del 30% de aplicaciones
de software en todos los sectores de la industria
y son preferidas sobre las aplicaciones tradicionales.
En este contexto mundial, Garrido et al. (2007) comentan
que la evolución de las aplicaciones no es solamente
impulsada para añadir nuevas funcionalidades,
sino para mejorar su usabilidad, capacidad de mantenimiento
y extensibilidad para futuras y eventuales
adiciones de funcionalidad.
Olsina et. al. (2007) explican que es en este punto
donde la refactorización (o refactoring) entra en
juego, ayudando a los desarrolladores no solo en la
mejora de la calidad del código, sino también
apoyando el proceso de mejoramiento continuo de
diseño de una aplicación web.
Este trabajo se centra en mostrar una porción reducida
de un catálogo de refactorings del modelo de navegación
generado usando diferentes pautas de diseño,
principios, patrones, conceptos y consejos de expertos
sobre usabilidad; y una posterior evaluación del impacto
de éstos.
Para lograr estos objetivos primeramente se abordarán
conceptos de modelos de una aplicación web, usabilidad
y refactoring.
Modelos de una aplicación web
Silva y Mercerat (2001), remarcan que la complejidad
del desarrollo de las aplicaciones web ocurre a diferentes
niveles:
ŸDominios de aplicación sofisticados: financieros, médicos,
geográficos, etc.
ŸNecesidad de proveer acceso de navegación simple a
grandes cantidades de datos multimedia.
ŸLa aparición de nuevos dispositivos para los cuales se
deben construir interfaces web fáciles de usar.
Esta complejidad en los desarrollos de software sólo
puede ser alcanzada mediante la separación de los
asuntos de modelización en forma clara y modular.
Tanto para el UWA Consortium (2002), como para
Schwabe y Rossi (1998) y Koch y Kraus (2002), entre
otros, la mayoría de las metodologías de diseño de
aplicaciones web formalizan el diseño de una aplicación
web a través de tres modelos:
ŸAplicación (información o contenido): detalla los
conceptos necesarios para que se pueda especificar el
contenido disponible para el usuario y cómo éstos
pueden ser accedidos.
ŸNavegación: especifica los conceptos que permiten
al diseñador reorganizar la información para fines de
navegación. Éste debe volver a utilizar los elementos
del modelo anterior para especificar los trozos de
información actuales, junto con las relaciones entre
ellos.
ŸPresentación: define los conceptos necesarios para
que el diseñador especifique cómo es publicado el
contenido en las páginas y cómo se supone que los
usuarios deben llegar a los datos dentro de la misma
página o en páginas diferentes.
Por su lado, Garrido et al. (2009) enfatiza que, la fase
de ejecución (que sigue al diseño) tendrá como objetivo
realizar una aplicación web que refleje las decisiones
de diseño definidas por estos tres modelos, por lo
que, no es sorprendente que los atributos de calidad
(tanto internos como externos) de la aplicación final
dependerán de estas opciones de diseño.
Usabilidad
Existen definiciones de usabilidad propuestas por diversos
autores que lo han hecho desde los diversos
atributos a partir de los cuales la usabilidad puede ser
evaluada, pero la definición más extendida y formal es
la encontrada en el estándar internacional ISO 9241-
11 (1998): “Usabilidad es el grado en que un producto
puede ser usado por determinados usuarios para lograr
sus propósitos con eficacia, eficiencia y satisfacción
en un contexto de uso específico”, donde:
ŸEficacia es la precisión con la que los usuarios alcanzan
las metas específicas.
ŸEficiencia son los recursos asignados en relación con
la precisión y exhaustividad con la que los usuarios alcanzaron
sus objetivos. Normalmente, la eficiencia
suele medirse en términos del tiempo que les lleva a los
16
Carlos Albaca Paraván
41:(2020)
ISSN:1668-9178
usuarios realizar dichas tareas.
ŸSatisfacción es la percepción de agrado y actitud positiva
hacia el uso del producto.
Según esta definición, la usabilidad posee atributos
cuantificables de forma objetiva (eficacia y eficiencia) y
atributos cuantificables de forma subjetiva (satisfacción).
Definición de usabilidad en el modelo de
navegación
Para Conte et al. (2007), la usabilidad aplicada al modelo
de navegación se refiere a los diferentes accesos a
las funcionalidades de la aplicación. Bajo esta perspectiva,
la usabilidad es satisfactoria si las opciones de
navegación que el usuario pueda llevar a cabo permiten
que realice sus tareas de forma eficaz, eficiente y
agradable.
Refactoring
Opdyke (1992) define un refactoring, en el contexto
de la orientación a objetos, como una transformación
sintáctica de código fuente que mejora su estructura
interna, preservando el comportamiento externo.
El refactoring no sólo puede ayudar a los desarrolladores
en la mejora de la calidad del código, sino
también puede apoyar el proceso de mejoramiento
continuo de diseño de una aplicación.
Olsina et al. (2007) define la refactorización de modelo
web a aquellas refactorizaciones que se pueden
aplicar a los modelos de navegación y presentación de
una aplicación web, donde éstas, afectan la forma en
que la aplicación presenta contenidos, permitiendo la
navegación a través de contenidos y proporcionando
capacidades de interacción.
Refactoring en el modelo de navegación
Garrido et al. (2011) define refactoring del modelo de
navegación como un cambio en el modelo de navegación
de la aplicación que preserva:
1. El conjunto de las operaciones de puesta a
disposición por todos los nodos (considerados como
un todo) en el modelo.
2. La accesibilidad de cada operación a través de una
ruta de navegación desde el nodo de origen.
Siguiendo esta definición, según Cabot (2008) y
Garrido et al. (2011), el refactoring del modelo de navegación
incluye:
ŸAgregar enlaces.
ŸModificar el origen o destino de un enlace.
ŸClonar o eliminar un enlace.
ŸAgregar una página (nodo).
ŸClonar o eliminar una página.
ŸCombinar o dividir páginas.
ŸRenombrar nodos, atributos de nodos y operaciones
de nodos.
ŸEliminar nodos inalcanzables o redundantes.
ŸMover contenidos u operaciones entre los nodos
disponibles.
ŸEliminar enlaces redundantes y enlaces de nodos
inalcanzables.
Esta lista no es exhaustiva. Se pueden definir más
refactorings para incrementar la usabilidad mientras
se preserve el comportamiento de la aplicación web
dado por las operaciones y los enlaces para alcanzar
esas operaciones.
El proceso de refactoring
Dos aspectos importantes del proceso de refactorización
son:
1. Cuándo refactorizar (detección de malos olores de
usabilidad): para Garrido et al. (2011), la detección y
corrección incremental de malos olores de usabilidad
simplifica el proceso de evaluación de la usabilidad en
general que los desarrolladores de aplicaciones deben
realizar cuando terminan una aplicación. Las estrategias
para la búsqueda de malos olores de usabilidad
incluyen: pruebas de usuario, realimentación, métodos
de inspección y análisis del uso de web. Además,
hay partidarios de la evaluación heurística, que es el
menos formal de los métodos.
2. Cómo medir los beneficios de la refactorización:
Garrido et al. (2011) también comentan que la mejora
en la usabilidad que las refactorizaciones de modelos
web pueden lograr siempre dependerá del buen criterio
de los desarrolladores en la selección de los cambios
más favorables, es decir, en su capacidad para detectar
los malos olores catalogados. Por ello, siempre
es conveniente realizar una evaluación de las mejoras
(o no) obtenidas en el proceso de refactoring usando
17
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
un marco de evaluación de la calidad web estructurada.
Detección de malos olores de usabilidad
Para la detección de malos olores en el diseño, se
utilizaron las pautas de diseño descritas por Leavitt y
Shneiderman (2006), los principios y patrones de diseño
descriptos por Van Duyne et al. (2003), los consejos
de Toxboe (2004), y los conceptos sobre usabilidad
web introducidos por Brinck et al. (2001) y
Jarrett y Gaffney (2009).
En base a esto, usando el método de inspección, se generó
un catálogo de refactoring aplicables al modelo
de navegación de aplicaciones web de comercio electrónico.
Catálogo de refactorings del modelo de navegación
Los tres refactorings presentados en este trabajo forman
parte de un catálogo mucho más amplio y son
aplicables al modelo navegación de sitios que sean
miembros de la familia de programas web de comercio
electrónico y serán descriptos de forma similar, pero
resumida, a lo que hacen Olsina et al. (2007), Garrido
et al. (2007, 2011) y Distante (2014).
R1. Fusionar elementos de lista de categorías
ŸMalos olores: falta o exceso de elementos en alguna/s
categoría/s de una lista.
ŸMotivación: según lo comentado por la pauta de
diseño “Avoid cluttered displays” de Leavitt y
Shneiderman (2006), la falta de orden o exceso de
elementos en una página lleva a la degradación de la
performance cuando un usuario trata de encontrar
cierta información, por lo tanto, el cliente puede abandonar
el sitio rápidamente, por otro lado, si alguna
categoría no posee elemento alguno, el cliente puede
sentirse frustrado y hasta pensar que eso se trata de un
error del sitio. Para evitar este problema, es necesario
crear listas de categorías sencillas e intuitivas que
permitan al cliente encontrar de manera rápida lo que
está buscando.
Ÿ Ejemplo: la página de inicio del sitio Disquera
MusicShop posee módulos de información que se utilizan
para mostrar diferentes secciones como artículos
recién llegados, próximos lanzamientos, más vendidos,
etc., donde cada sección posee una lista de
categorías y en cada una de ellas se detallan, en un
carrusel los productos correspondientes. Por ejemplo,
la sección “Recién Llegados” posee las categorías CD,
DVD, Vinilos y Blu-ray, donde la categoría CD posee 7
productos, DVD posee 2 productos, Vinilos posee 3
productos y Blu-ray posee 1 producto. La aplicación
del refactoring consistió en reemplazar la lista de categorías
con sus correspondientes carruseles, por un
carrusel único en el que se encuentren todos los productos
de la sección “Recién Llegados”. La versión original
y refactorizada pueden observarse en las figuras
1(a) y (b) respectivamente.
Fig. 1(a) Sección “Recién Llegados” antes de la aplicación del refactoring.
18
Carlos Albaca Paraván
41:(2020)
ISSN:1668-9178
Fig. 1(b) Sección “Recién llegados” después de la aplicación del refactoring.
R2. Incorporar la opción Todas las categorías/Productos
ŸMalos olores: falta de una página o sección que
posea todas las categorías y subcategorías (y productos)
de productos ordenadas alfabéticamente.
ŸMotivación: cuando los clientes conocen la palabra
o frase precisa que están buscando, ellos pueden
encontrarla rápidamente en una lista alfabética. En el
caso específico de los sitios de comercio electrónico
sería una lista que contenga todas las categorías y subcategorías
(y hasta podría contener los productos)
ordenados alfabéticamente o por algún método que
se considere pertinente.
ŸEjemplo: el sitio Light in the Box, posee un menú
vertical fijo en la página de inicio y en el resto de las
páginas el mismo menú, pero visualizado de forma
contraída (www.lightinthebox.com/es). En los mismos,
no existe la posibilidad de ver todas las categorías
que posee el sitio. Para realizar el refactoring, se
agregó en el encabezado del listado de categorías un
enlace llamado “Ver todas” que nos lleva a una página
que contiene todas las categorías y subcategorías del
sitio ordenadas de la misma manera que en el menú
principal. La versión original y las refactorizadas pueden
observarse en las figuras 2(a), (b) y (c) respectivamente.
Fig. 2(a) Listado de categorías antes de la aplicación del refactoring.
19
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Fig. 2(b) Listado de categorías después de la aplicación del refactoring donde se puede observar el agregado de un enlace que se
llama “ver todas” y dirige a una página con todas las categorías del sitio.
Fig. 2(c) Parte de la página “Todas las categorías” resultado del refactoring.
20
Carlos Albaca Paraván
41:(2020)
ISSN:1668-9178
R3. Integrar ventana emergente a una página
ŸMalos olores: utilización innecesaria de enlaces y
ventanas emergentes para mostrar información relevante
y de poca extensión.
ŸMotivación: la cantidad y calidad de la información
que se plasma en la página de un sitio web es determinante
a la hora de retener un cliente. Por ello, es
crucial determinar qué información es relevante para
el cliente y poder darle acceso a ella fácilmente y de
una manera visualmente agradable. Leavitt y
Shneiderman (2006) enuncia que la utilización de
ventanas emergentes para mostrar información es de
utilidad cuando la información a mostrar no es de vital
relevancia o es muy extensa para poder incorporarla a
la página en sí. Hay casos en los que la información no
puede estar en una ventana emergente ya que el
cliente pierde tiempo primero en encontrar el enlace
que abra la ventana y luego en esperar que cargue,
incorporando pasos al proceso pudiendo generar un
malestar en el usuario. Cabe mencionar que, para poder
incorporar la información de la ventana emergente
a la página, es necesario que ésta posea el espacio
suficiente sin que con la incorporación haya una
violación a las pautas de diseño que tratan acerca de la
densidad de información y la organización de los elementos
en la página.
ŸEjemplo: la página de producto del sitio web The
iCase (www.icase.com.ar) posee un enlace a una ventana
emergente que contiene la información sobre el
pago del producto en cuotas. La página de producto
posee una cantidad considerable de espacios en blanco
y la información provista en las ventanas emergentes
es muy poca, por lo que se plantea el uso de
este refactoring para mejorar la navegabilidad de la
página y la densidad de información de la página. En
este caso, se eliminó el enlace a la ventana emergente
y se trasladó la información a la página de producto,
reorganizando la información. Las versiones originales
y la refactorizada pueden observarse en las figuras
3(a), (b) y (c) respectivamente.
Fig. 3(a) Sección de página de producto que contiene el enlace a la ventana emergente antes del refactoring.
21
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Fig. 3(b) Ventana emergente con el detalle de las cuotas.
Fig. 3(c) Sección de página de producto que contiene la información extraída de la ventana emergente después del refactoring.
22
41:(2020)
ISSN:1668-9178
Liliana del Valle Abascal, Gustavo González Bonorino, Pablo Carlos Agustín Albaca Arévalo, Paraván
Lidia María Benítez y Sonia Bibiana Benítez
Evaluación del impacto de los refactorings
Para el proceso de evaluación de usabilidad, se tomó
como base la metodología utilizada por Grigera et al.
(2016) pero modificada y adaptada para el caso particular
de este trabajo.
Definición y planeamiento de la evaluación
El propósito de la evaluación es comparar la usabilidad
antes y después de la aplicación de los refactorings
presentados, con la finalidad de identificar los efectos
que tienen en la usabilidad percibida por los usuarios.
En orden de poder alcanzar los objetivos propuestos
se recurrirá a la utilización de métodos de reportes de
usuario, en los cuales los usuarios reales trabajan con
modelos representacionales de los sistemas. Se tomó
la decisión de utilizar este método ya que no se tiene la
posibilidad de utilizar versiones refactorizadas de las
aplicaciones web usadas para los casos de estudio.
Sujetos y objetos de la evaluación
Para la realización de la evaluación se reclutaron aleatoriamente
120 individuos, divididos en 4 grupos de
30 voluntarios cada uno, que tuvieron el rol de usuarios
finales de los sitios a evaluar, siendo éstos los
sujetos de la evaluación.
Por otro lado, los refactoring aquí mostrados se
aplicaron a 2 sitios de comercio electrónico como caso
de estudio definiéndose como los objetos de la
evaluación.
Para medir el efecto en la usabilidad, se utilizó un
cuestionario apoyado en la utilización de imágenes y/o
videos del antes y después de cada sección de página
refactorizada, generando 4 alternativas diferentes que
se corresponden con los 4 grupos de voluntarios.
Pregunta de investigación y formulación de la
hipótesis
Como se enunció con anterioridad, la eficacia y
eficiencia son atributos de la usabilidad cuantificables
de forma objetiva y la satisfacción es cuantificable de
forma subjetiva.
La forma de medir la eficacia es en función del
porcentaje de acierto obtenido al realizar una tarea, la
eficiencia en función del tiempo que lleva a los
usuarios completar dicha tarea y la satisfacción en función
de la opinión personal acerca del agrado al realizarla.
Al no contar con prototipos refactorizados de las aplicaciones
web del caso de estudio, no se pueden obtener
mediciones objetivas de eficacia y eficiencia, por lo
cual solo se evaluará la satisfacción del usuario frente
al refactoring. Bajo este contexto, la pregunta de investigación,
la hipótesis nula y la alternativa serían las
siguientes:
ŸPregunta de investigación: ¿Es la satisfacción afectada
por el refactoring?
ŸH : La satisfacción del usuario es igual para el sitio re-
0
factorizado y el sitio original.
ŸH : La satisfacción del usuario es diferente para el si-
1
tio refactorizado y el sitio original.
Factores, variables de respuesta y métricas
El factor de este experimento es el uso del proceso de
refactoring, donde el factor tiene dos niveles de tratamiento:
aplicar o no el proceso de refactoring. Para
cada problema (objeto) se muestran dos versiones de
la aplicación web, una refactorizada y otra no.
La variable de respuesta para responder la pregunta
de investigación planteada anteriormente es la satisfacción
en el uso, cuya métrica es un valor numérico
que se obtiene de la suma de los puntajes obtenidos
en cada pregunta que se realiza sobre los refactoring.
La métrica de cada pregunta es una escala de 5 puntos
en la escala de Likert capturada con un cuestionario.
El instrumento
El instrumento elegido para la recolección de los datos
fue el cuestionario. La decisión de haber creado un
cuestionario de satisfacción propio se fundamenta en
que los que existen son demasiado genéricos y no
tienen el poder suficiente para extraer todas las características
relacionadas con los refactorings.
Entre los distintos tipos de cuestionarios se eligió el
tipo on-line, confeccionado a través de los formularios
de Google, ya que con este tipo de cuestionario se
puede tener rapidez, tanto en la elaboración y difusión
del cuestionario como en el envío de la respuesta,
tiene un coste muy bajo y ausencia de sesgo por parte
del entrevistador.
23
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Diseño de la evaluación
El diseño experimental elegido fue un diseño aleatorizado
sencillo. Se eligió este diseño debido a que se
tiene un único factor (el proceso de refactoring) con
dos alternativas o niveles (aplicar o no el proceso).
Amenazas a la validez
Se tomaron todas las acciones preventivas para evitar
las amenazas a la validez de la conclusión (bajo poder
estadístico, fiabilidad de la medición y confiabilidad
en la implementación del tratamiento), la validez interna
(maduración, instrumentación y selección) y externa
(interacción de selección y tratamiento, e interacción
de fijación y tratamiento).
Análisis e interpretación de los resultados
Para realizar el análisis se utilizó la prueba U de Mann-
Whitney bilateral o de dos colas, ya que se quiere probar
que una muestra (aplicación del refactoring) es
significativamente diferente que la otra (no aplicación
del refactoring). Con esta prueba no paramétrica para
muestras independientes, para cada refactoring mostrado
en el trabajo se puede aceptar o rechazar la hipótesis
nula y en función de las medias de H 0 y de H 1,
concluir si el refactoring mejoró o empeoró la satisfacción
del usuario.
Para llevar a cabo la prueba de hipótesis se eligió un
nivel de significancia α = 0,05 (implica que el investigador
tiene 95% de seguridad para generalizar los
resultados sin equivocarse y solo 5% en contra) y el
tamaño de todas las muestras independientes fue de
n=30 (valor superior al n=20 recomendado).
Luego de elegir los métodos y parámetros adecuados,
se procedió a analizar los datos con el software Excel
con el complemento XLSTAT.
La tabla 1 muestra los resultados de las pruebas de
hipótesis realizadas a los refactoring, donde un valor
de p < 0,05 (valor p < α) implica que el refactoring
tuvo un resultado significativamente diferente
(permitiendo rechazar la hipótesis nula), y en ese caso,
si se puede concluir que el refactoring mejoró
la satisfacción del usuario.
Tabla 1: Resultados de las pruebas de hipótesis realizadas a
los refactoring
De la tabla 1 se puede observar que 2 de los 3
refactorings presentados y evaluados mostraron una
mejoría en la satisfacción del usuario, por lo que se
puede concluir que la aplicación de estos refactoring
es beneficiosa para los usuarios de las aplicaciones
web ya que mejora la satisfacción de los usuarios. Por
otro lado, vale destacar que el refactoring R1 no generó
cambios por lo que su aplicación es indiferente a
la satisfacción del usuario.
Conclusiones
Las aplicaciones web y especialmente los sitios de comercio
electrónico, han adquirido un lugar preponderante
en la vida de los usuarios, siendo necesario
aplicar los conceptos de usabilidad web para optimizar
la interacción del usuario al momento de hacer
compras. Estos conceptos involucran la necesidad de
realizar cambios a las versiones actuales de los sitios de
comercio electrónico, siendo estos cambios denominados
refactorings.
Los refactorings presentados en este trabajo están basados
en hacer cumplir diferentes pautas de diseño y
patrones de diseño web ampliamente difundidos, y se
pueden aplicar a los modelos de navegación de los sitios
de comercio electrónico, afectando diferentes factores
de usabilidad.
24
41:(2020)
ISSN:1668-9178
Liliana del Valle Abascal, Gustavo González Bonorino, Pablo Carlos Agustín Albaca Arévalo, Paraván
Lidia María Benítez y Sonia Bibiana Benítez
Como caso de estudio, estos refactorings fueron aplicados
a dos miembros de la familia de programas de
comercio electrónico, donde se pudo apreciar que no
todo es positivo con el proceso de refactoring, ya que
la evaluación de la usabilidad resulta ser un proceso
costoso y que requiere tiempo (difícil de realizar sin
contar con los recursos necesarios). Además, a la hora
de la implementación en los diferentes miembros de la
familia de programas estudiados, la evaluación de la
satisfacción como atributo de la usabilidad, demostró
que no todos los refactorings propuestos mejoran la
satisfacción ni los factores de usabilidad que afectan
cada uno.
Por último, se puede concluir que, al trabajar con
miembros de la familia de programas de comercio
electrónico, los resultados mostrados en este trabajo
pueden hacerse extensivos a todo miembro de la
familia de programas de comercio electrónico.
Referencias Bibliográficas
Brinck, T., Gergle, D. and Wood, S. D. (2001) Usability for the Web: designing Web sites that work. Morgan
Kaufmann.
Cabot, J. and Gómez, C. (2008) A catalogue of refactorings for navigation models. In Web Engineering.
ICWE'08. Eighth International Conference on, pp. 75-85. IEEE.
Conte, T., Massolar, J., Mendes, E. and Travassos, G. (2007) Usability Evaluation Based on Web Design
Perspectives, En: IEEE/ACM 1st ESEM, Madrid, España, pp. 146-155.
Distante, D., Garrido, A., Camelier-Carvajal, J., Giandini, R. and Rossi, G. (2014) Business processes
refactoring to improve usability in E-commerce applications. Electronic Commerce Research, 14(4), pp. 497-
529.
Garrido, A., Rossi, G. and Distante, D. (2007) “Model refactoring in web applications”, En: 9th IEEE Int.
Symposium on Web Site Evolution, pp. 89-96.
Garrido, A., Rossi, G. and Distante, D. (2009) “Systematic improvement of web applications design”.
Journal of Web Engineering, vol. 4, Nº 8, p. 371.
Garrido, A., Rossi, G. and Distante, D. (2011) “Refactoring for usability in web applications”, IEEE
Software, vol 3, Nº 28, pp. 60-67.
Grigera, J., Garrido, A., Panach, J. I., Distante D. and Rossi, G. (2016) “Assessing refactorings for usability
in e-commerce applications”, Empirical Software Engineering, Vol. 3, Nº. 21, pp. 1224-1271.
Hassan, A. (2001) “Architecture Recovery of Web Applications”. Tesis, Maestría en Matemáticas en Ciencias
de la Computación. Universidad de Waterloo.
International Organization for Standarization (1998) Guidance on usability. ISO 9241-11.
Jarrett, C. and Gaffney, G. (2009) Forms that work: Designing Web forms for usability. Morgan Kaufmann,
Oxford, U.K.
nd
Koch, N. and Kraus, J. (2002) The expressive power of UML-based web engineering, En: 2 Int. Workshop
on Web Oriented Software Technology, Málaga, España.
Lau, S. Q. (2006) “Domain analysis of e-commerce systems using feature-based model templates”. Tesis,
Maestría en Ciencias Aplicadas en Ingeniería Eléctrica e Informática. Ontario, Canada: University of
Waterloo.
25
41:(2020)
ISSN:1668-9178
Investigación y Desarrollo
Leavitt, M. O. and Shneiderman, B. (2006) Based Web Design & Usability Guidelines. Health and Human
Services Dept (U.S.).
Olsina, L., Rossi, G., Garrido, A., Distante, D. and Canfora, G. (2007) “Incremental Quality Improvement in
Web Applications Using Web Model Refactoring”, En: 1st Int. Workshop on Web Usability and Accessibility,
pp. 411-422.
Palmer, J. (2002) “Web site usability, design, and performance metrics,” Information systems research, vol.
13, pp. 151-167.
Schwabe, D. and Rossi, G. (1998) An object oriented approach to web-based application design, En: Theory
and Practice of Object Systems, Wiley, Estados Unidos.
Silva, D. and Mercerat, B. (2001) "Construyendo aplicaciones web con una metodología de diseño
orientada a objetos.", Revista Colombiana de Computación, vol. 2 Nº. 2, pp. 79-98.
Toxboe, A. (2004) UI Patterns - User Interface Design Pattern Library. Disponible en: ui-patterns.com
[Accedido: 16/05/2013].
UWA Consortium (2002) The UWA Approach to Modelling Ubiquitous Web Applications, En: Conference
“IST Mobile & Wireless Telecommunications Summit 2002, towards Ubiquitous Communications”,
Thessalonoki, Greece.
Van Duyne, J. Landay and J. Hong. (2003) The Design of sites: Principles, processes and patterns for
crafting a customer-centered web. Addison-Wesley, Boston, E.E.U.U.
Ziemer, S. (2002) An Architecture for Web Applications, En: Distributed Information Systems, vol. 8914, pp.
9-11.
Este trabajo se llevó a cabo en el marco del desarrollo de tesis de Maestría en Ingeniería de Software (FI-UNLP),
del Ing. Carlos Albaca Paraván, titulada “Refactorización de los modelos de navegación y presentación de la
familia de programas web de comercio electrónico”.
Carlos Albaca Paraván
Ingeniero en Computación, graduado de la Facultad de Ciencias Exactas y
Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT) y Magister en
Ingeniería de Software. Jefe de Trabajos Prácticos, dedicación exclusiva (UNT).
Docente de la Especialización de Posgrado en Integración de Tecnologías Informáticas.
Participante del Programa de Investigación “Internet de las Cosas:
desde los Sistemas Embebidos a las Aplicaciones”, PIUNT E652 (2018-2022).
Participó en diversas actividades de extensión y vinculación. Publicó diferentes
trabajos de investigación y artículos en revistas.
Contacto vía e-mail a: calbaca@herrera.unt.edu.ar
26
41:(2020)
ISSN:1668-9178
Informe Técnico
Medición del diámetro de la pupila ocular con
libertad de movimiento y flexibilidad técnica
Juan Ignacio Contino y Andrés Martín
Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán, Tucumán, Argentina.
Resumen
Los estudios de la visión humana requieren con frecuencia medir el tamaño de la pupila de un sujeto. Esta tarea
es compleja por un número de razones, y es un tema de especial interés en los diseños experimentales. La
medición se realiza tradicionalmente con dispositivos que detectan las pupilas y siguen su movimiento,
llamados eyetrackers. Los eyetrackers requieren que las medidas se tomen de tal manera que el sujeto mantenga
una posición corporal determinada o de movilidad restringida, limitando las tareas posibles en un
experimento. Para solucionar estos inconvenientes se puede optar por un eyetracker que consta de una cámara
fijada a un marco de anteojos (y permite el movimiento libre del sujeto), con facilidades de conexión. Este
informe técnico documenta el trabajo hecho en la puesta a punto de un sistema que toma medidas del
diámetro de la pupila de un sujeto mientras éste realiza una tarea visual. Se diseña también un protocolo para
realizar estas mediciones. Para controlar el dispositivo se diseña un sistema instalable en dispositivos pequeños
portátiles o PCs (placas capturadoras). El sistema final es capaz de adquirir mediciones de pupila que permiten
libertad de movimiento al sujeto y portabilidad de todo el sistema a nivel software y hardware.
Palabras clave: eyetracker, pupila.
Measurement of the ocular pupil diameter with freedom of movement and technical flexibility
Abstract
Studies of human vision frequently require measuring the size of a person's pupil. This is a complex task, for a
number of reasons, and is a topic of particular interest in experimental designs.The measurement is
traditionally done with devices that detect the pupils and follow their movement, called eyetrackers.
Eyetrackers require that measurements be taken in such a way that the person maintain a certain body position
or restricted mobility, limiting the possible tasks in an experiment. An eyetracker consisting of a camera fixed to
an eyeglass frame (and that allows free movement of the person), with connection facilities, can be used to
overcome these drawbacks. The present technical report documents the work done in setting up a system that
takes measurements of a person's pupil diameter while performing a visual task. A protocol is also designed to
perform these measurements. To control the device, a system that can be installed on small portable devices or
PCs is designed. The final system is capable of acquiring pupil measurements that allow freedom of movement
to the person and the portability of the entire system at the software and hardware level.
Keywords: eyetracker, pupil.
27
41:(2020)
ISSN:1668-9178 Informe Técnico
Introducción
La técnica de la medición de pupila es hoy ampliamente
utilizada, se encuentra desarrollada, y se realiza con
dispositivos que detectan las pupilas y siguen su movimiento
llamados eyetrackers, denominación que se
utilizará en adelante. Sin embargo, esta tarea tiene algunas
dificultades asociadas, como el traslado del dispositivo,
la complejidad de la conexión de este equipo
con PCs (placas capturadoras) y la movilidad del sujeto
en el experimento. Los eyetrackers se pueden subdividir
entre los que necesitan que los sujetos mantengan
una posición determinada y fija de su cabeza durante
el desarrollo del experimento y los que dan ciertos
grados de libertad en su movimiento. Siempre que
el experimento lo permita, es deseable que el sujeto
pueda moverse. Una tarea con un diseño que requiera
mantener la posición de la cabeza de un sujeto fija provoca
agotamiento cuando estos experimentos son
prolongados. Esto lleva a pérdidas de atención, entre
otros efectos, interfiriendo de manera indeseada en el
rendimiento de un sujeto en la tarea.
Las mediciones de pupila que se hacen tradicionalmente
en el Departamento de Luminotecnia, Luz y
Visión de la Facultad de Ciencias Exactas y Tecnología
(FACET), Universidad Nacional de Tucumán (UNT) se
realizan con eyetrackers de ambos tipos, con dispositivos
Cambridge Research System Eyetracker Toolbox
y Arrington Research ViewPoint EyeTracker. El último
permite realizar mediciones con libertad de
movimiento, pero su conexión con una computadora
requiere de la compra e instalación de placas adquisidoras
de datos específicas y su software solo se
encuentra disponible para un sistema operativo determinado,
lo que dificulta su uso, y al final, su portabilidad.
Para solucionar estos problemas se adquiere
un nuevo eyetracker y se adapta un sistema de
software y hardware para poner a punto un equipo
que se utilizará en las futuras configuraciones experimentales
psicofísicas. El sistema final necesita de un
dispositivo de hardware donde implementar la solución
que soporte el software del eyetracker comprado
para manejarlo y ejecutar los experimentos.
Se plantea realizar una solución de software portable
entre hardware de distintos formatos que facilita la
movilidad de los experimentos a entornos de campo
abierto. Para este informe, la implementación se realiza
en hardware de formato PC. Sin embargo, la confi-
guración final es instalable en otros dispositivos de
manera nativa.
El hardware utilizado, la puesta a punto del software
del eyetracker y la configuración del software adicional
del sistema para diseñar estímulos psicofísicos
son el aporte que se detalla y se documenta en el
trabajo. También se diseña un protocolo adecuado
para la utilización de la solución final.
Eyetracker
El fabricante del eyetracker es Pupil-Labs y su modelo
es Pupil Core (Kassner et al. (2014)). Este dispone de
conexión USB para su control y se distribuye con un
software de eyetracking que es necesario configurar,
calibrar y comunicar con otros programas que corren
los experimentos para coordinar las mediciones en los
momentos adecuados.
Fisonomía
Se conforma de un marco de anteojo al que se agregan
módulos con funcionalidades específicas (ver figura
1).
El dispositivo del que se dispone incluye una cámara de
alta frecuencia de captura de fotogramas para el ojo
derecho y una cámara frontal. Las especificaciones de
las cámaras (Kassner et al. (2014)), se observan en la
tabla 1.
Fig. 1 Pupil Eyetracker Core - marco y cámaras. Imagen
pública tomada de https://pupil-labs.com/products/core/
28
Juan Ignacio Contino y Andrés Martín
41:(2020)
ISSN:1668-9178
Tabla 1: Especificaciones de las cámaras
Software del eyetracker
La suite de software de Pupil-Labs hace de nexo entre
el eyectracker y el equipo donde se conecta. Se implementa
en Python y en C, su código fuente está disponible
y es multiplataforma (soportado en Windows y
en GNU/Linux), (Kassner et al. (2014)). La suite consta
de 3 programas:
1. Pupil Capture: captura video de las cámaras;
implementa modelos: Ojo, Gaze; calibra modelos y
genera datos (extensible mediante plugins).
2. Pupil Player: visualiza grabaciones y exporta datos.
3. Pupil Service: Interfaz IPC.
Medición
En el diseño de la solución se considera un caso de medición
genérica en tareas controladas. De este modo,
el sistema final se puede usar en una amplia gama de
experimentos con requisitos muy distintos. Se concibe
una medición con las siguientes características:
ŸAutomática: debe realizarse de manera automática
sobre uno de los ojos del sujeto.
ŸControlable: debe poder darse inicio y final al proceso
de medición desde un programa diseñado en los momentos
requeridos.
ŸFrecuencia: deben ejecutarse con frecuencia de entre
20 y 30 mediciones por segundo.
ŸEstampa Temporal (timestamp)[s]: debe proveer la
referencia temporal del momento al que se corresponde
la medición.
ŸDato [mm]: debe proveer claramente diámetro de la
pupila, que es el parámetro buscado.
ŸConfiable: debe proveer un parámetro que determine
la calidad de la medida.
ŸPresentación: debe proveer los datos en un archivo de
campos separados por coma (CSV).
Un protocolo apropiado para ejecutar la medición
puede ser el propuesto en el Anexo I.
Diseño del sistema de medición
El diseño del sistema final tiene componentes de
hardware y de software y responde a las premisas:
ŸDebe ser implementable en el hardware disponible
del laboratorio (Arquitectura x86_64).
Ÿ Debe ser portable a hardware más pequeño de
arquitectura x86_64 (AtomicPi, mini PCs) y de
arquitectura ARM (Odroid, Raspberry Pi).
Hardware
Para armar el sistema se dispone de una PC cuyo CPU
tiene tecnología que data del año 2008 y una GPU del
año 2009. Se consigue un uso equilibrado de este
hardware con 4GB de memoria RAM Dual Channel
DDR2. Hardware disponible:
Ÿ Motherboard: ASRock N68C-GS FX
Ÿ CPU: AMD Phenom 8650 Triple-Core
Ÿ GPU: NVIDIA GeForce 210
Ÿ Memoria: 2 x 2GB DDR2 1066 Hz Dual Channel
Software
Es necesario disponer de los programas pertenecientes
a la suite de Pupil-Labs en el sistema final. Hay que remarcar
que este software está pensado para ser usado
en computadoras actuales y además está escrito en un
lenguaje interpretado. Ambas cualidades suponen un
consumo notable de recursos computacionales para
un sistema moderno y es una de las cosas a tener en
cuenta para el diseño del sistema final.
Realizar el trabajo con el hardware disponible es una
29
41:(2020)
ISSN:1668-9178 Informe Técnico
potencial limitación para la obtención de las mediciones
con la frecuencia esperada. Esto también influye
en otros parámetros, por ejemplo: resolución del
video grabado, postprocesado de la imagen, uso de
plugins en el software de control del eyetracker, etc.).
Según cómo se concibe la solución, el software de la
instalación debe resolver los siguientes problemas en
el siguiente orden de prioridades:
1. La distancia generacional del hardware
La interfaz gráfica de usuario (GUI) del software del
eyetracker está escrita en Python. Las funciones de los
modelos del ojo que implementa la suite están escritas
en C y hacen uso intensivo de librerías matemáticas
(BLAS, OpenCV, OpenGL, Ceres Solver, etc), (Kassner
et al. (2014)). Este problema es el más importante de
todos, ya que determina si la solución puede implementarse
o no. Hay sistemas operativos que se pueden
utilizar en hardware antiguo, pero no soportan las
librerías que implementan las funciones matemáticas
de la suite de Pupil (incompatibles a nivel arquitectura),
o no lo hacen con la performance necesaria para
la tarea (problema generacional).
Para solucionar este inconveniente se elige un sistema
operativo con kernel Linux. Este kernel soporta el
hardware en toda la gama generacional del caso de
uso, (The Linux Kernel Development Community
(2019)). Un sistema operativo basado en ese núcleo
soporta también el software del eyetracker de Pupil-
Labs. Sobre este kernel se puede construir un sistema
operativo a medida con mucha flexibilidad, lo que
permite completar el resto de la configuración. Se
compila el kernel desde el código fuente para la arquitectura
del procesador y el hardware presente para
evitar gastos de recursos computacionales en funcionalidades
que no se utilizan (el procedimiento está
fuera del alcance de este informe). Se usa el código
fuente correspondiente al día 15/09/2017. Se utiliza
para el resto del sistema la distribución de paquetes de
Archlinux (Rolling Release).
2. La elección del lenguaje de programación para
escribir los experimentos
El lenguaje que se usa tradicionalmente para implementar
los experimentos psicofísicos en el Departamento
de Luminotecnia, Luz y Visión (FACET/UNT) es
MATLAB. MATLAB no se puede usar en esta solución,
ya que:
ŸSus requisitos de hardware superan en demasía a las
características de equipo del que se dispone.
ŸEl valor económico de su licencia es elevado.
ŸNo está disponible en la arquitectura ARM.
En su lugar se utiliza Octave. Octave es un lenguaje cuyo
intérprete es casi completamente compatible con el
intérprete de MATLAB. Este software tiene requerimientos
mínimos de hardware. Además, cuenta con
las siguientes ventajas respecto del software tradicional:
ŸPuede ser optimizado para la arquitectura compilando
desde el código fuente.
ŸNo necesita un GUI que consuma recursos.
ŸSus dependencias son nativas del sistema operativo.
ŸSe desarrolla nativamente para el sistema operativo.
Se instala Octave 4.2.1, (Eaton (2018)).
3. Los requisitos de las características de la medición
Para obtener el grado de control y confiabilidad de la
medición requerido en el sistema, es necesario programar
también estas mediciones en lugar de dejar que el
software del eyetracker haga este trabajo de manera
independiente. La manera correcta de hacer esto es
comandar las mediciones desde dentro del código del
experimento escrito, sincronizándolas con los eventos
apropiados. Para esto, la suite de Pupil-Labs provee un
medio de comunicación TPC/IP mediante el cual el
software del eyetracker queda esperando órdenes
externas que se pueden estructurar en el código del
programa.
Para solucionar esta comunicación se instala un complemento
del lenguaje Octave que implementa la
librería ZeroMQ, (Pieter Hintjens (2019)). Esta librería
es portable y permite la comunicación entre procesos
de un mismo equipo o de equipos de una red mediante
el conjunto de protocolos TCP/IP. De esta manera, se
puede controlar el algoritmo que maneja las cámaras
del eyetracker, la calibración de los algoritmos Ojo y
Gaze, etc., (Kassner et al. (2014)).
Esto le da al sistema la capacidad de realizar mediciones
automáticas, controlables, confiables, de administrar
su presentación, y de registrar el momento
exacto en que se toman los datos.
30
Juan Ignacio Contino y Andrés Martín
41:(2020)
ISSN:1668-9178
4. El requisito de portabilidad del sistema
La portabilidad entre arquitecturas x86_64 y ARM
queda solucionada con la elección realizada del kernel
y la distribución de software, (The Linux Kernel
Development Community (2019)). El sistema operativo,
la suite de Pupil-Labs y el lenguaje de programación
soportan de manera nativa las arquitecturas de
procesadores requeridas. Para portar el sistema solamente
hace falta instalar la misma configuración de
software detallada y eventualmente compilar algunas
librerías necesarias en la arquitectura destino.
La portabilidad permite instalar el sistema en dispositivos
pequeños alimentados con batería para poder
hacer mediciones en entornos abiertos y sin instalación
eléctrica.
Esta configuración permite programar completamente
el eyetracker en el equipo donde se conecta y
de manera remota, esto es: mediante una red
cableada o inalámbrica.
Software adicional
Para realizar las mediciones es solamente necesario un
sistema operativo de soporte con la configuración
detallada anteriormente, el lenguaje para programación,
y el software del eyetracker. Sin embargo, la
solución se complementa con instalaciones accesorias
que permiten la operación futura de personal no
técnico del laboratorio, y la elaboración de estímulos
visuales complejos para unificar la actividad experimental
psicofísica en un solo equipo.
Se necesitan facilidades para montar memorias extraíbles,
administrar archivos de manera gráfica, etc. Se
instala un entorno gráfico muy básico para no consumir
recursos que deben ser aprovechados en la aplicación
para la que fue diseñado el sistema. Se opta por
LXDE para este fin, con una configuración especial y el
recorte de las funcionalidades que no se utilizan.
Para diseñar los estímulos visuales se instala además la
suite de librerías Psychtoolbox 3.0.14 para Octave,
(Brainard (1997)).
Presentación de los datos
El software de Pupil-Labs devuelve los siguientes recursos:
ŸVideos: Contienen la filmación asociada a la cámara
frontal y a la del ojo.
Ÿ Archivos CSV: Cada línea de estos archivos está
formada por una tupla compuesta por todos los valores
devueltos por los dos algoritmos ejecutados en el
software de Pupil-Labs. Entre estos valores están el
diámetro de la pupila en milímetros (que es el dato
que se busca), la confiabilidad del valor provisto por el
algoritmo (en puntuación 0 a 1), datos correspondientes
a las coordenadas esféricas de la mirada, y
datos asociados a la temporalidad de las mediciones
realizadas. Ver Anexo II.
Temporalidad de los datos
Como los algoritmos involucrados son de naturaleza
iterativa, (Kassner et al. (2014)), no se puede definir
una frecuencia regular de entrega de resultados. Por
esta razón el algoritmo incluye en cada registro de
cada archivo .CSV un primer campo del tipo índice que
registra el momento en segundos en el que se tomó la
medición y en el segundo campo se registra el número
de captura de imagen (asociado a ambos videos)
más cercano a esa medición. De esta manera, se puede
comprobar que no todas las capturas de imágenes
tienen la misma cantidad de mediciones asociadas, y
que algunas carecen de medición. Ver Anexo II.
El campo índice temporal de medición es relativo a un
momento seleccionado de manera arbitraria por el
desarrollador del experimento, y se puede establecer
en el programa del experimento a través de ZeroMQ.
El índice temporal establecido por omisión corresponde
al momento de arranque de Pupil Capture o Pupil
Service (lo que suceda primero).
Resultados
A partir de los datos entregados por la suite de Pupil-
Labs se puede obtener la medida del diámetro pupilar.
Estos datos también se encuentran en el archivo .CSV
devuelto por el software del eyetracker. El error del
diámetro de la pupila es función de un parámetro que
determina la confiabilidad de la medida tomada. Este
dato varía entre 0 y 1, el valor de la medición se forma
de la siguiente manera:
Diámetro de pupila = diameter_3d +/- (1 -
model_confidence) * diameter_3d
31
41:(2020)
ISSN:1668-9178 Informe Técnico
Donde diameter_3d y model_confidence son campos
en el archivo de datos devuelto por el software del
eyetracker, (Kassner et al. (2014)). Ver Anexo II.
Conclusiones
Se planteó realizar la puesta a punto de un sistema
que realiza medidas de diámetro pupilar con posibilidad
de movimiento de sujeto, resultados confiables y
portabilidad de hardware. Se diseñó un sistema de
hardware y software portable a partir de equipamiento
disponible teniendo en cuenta cada aspecto
que podía ser una limitación para la implementación
de la solución. Se logró un sistema apto para realizar
mediciones de pupilas para permitir su empleo en
investigaciones sobre el funcionamiento de la visión
humana. Este sistema cumple con las características
especificadas en los requisitos.
Anexo I: Protocolo para realizar mediciones
Para que el sistema entregue valores confiables y precisos debe utilizarse de manera correcta. Este sistema
necesita ser calibrado y posicionado para cada sujeto. Por lo tanto, es necesario articular la tarea del
experimento con la preparación del sistema. Se enumeran a continuación las tareas que deben realizarse antes
de medir sujetos. Se recomienda realizar estas tareas en orden para tener al sujeto en posición la menor
cantidad de tiempo posible antes del experimento.
ŸEncendido del PC
ŸSelección de cámara frontal (100º o 60º) y colocación en el marco con herramienta provista
ŸPreparación del marco del eyetracker con la lente del ojo derecho (60º)
ŸColocación del marco en el sujeto (figura 2)
ŸConexión del eyetracker vía USB
ŸArranque del intérprete Octave
ŸArranque del programa Pupil Capture
ŸConfiguración de Pupil Capture
ŸSeleccionar método de calibración adecuado para el experimento, (Kassner et al. (2014))
ŸHabilitar el monitoreo del diámetro de la pupila
ŸHabilitar el monitoreo de la confiabilidad del modelo del gaze
ŸVerificación del Socket para IPC
ŸHabilitar cámara del ojo derecho
ŸValidar que se ejecute el proceso de la cámara del ojo derecho
ŸPosicionado del sujeto frente a la pantalla del estímulo
ŸConfiguración de las cámaras
Ÿ Ojo Derecho
ŸPosicionar la cámara del ojo de manera que el ojo entero quepa en el campo de visión de la cámara
(figura 3)
▪ Regular el tiempo de exposición de la cámara para obtener buen contraste en la imagen
▪ Pasar el monitoreo del ojo al “Modo Algoritmo”
▪ Regular la sensibilidad de la detección de la pupila para cubrirla entera excluyendo las otras partes
oscuras del ojo
▪ Validar el modelo del ojo controlando en el modo debug
ŸFrontal
▪ Posicionarla de manera que entre en su FOV la mayor parte del FOV del ojo derecho
ŸCargar la librería ZeroMQ (se puede hacer manualmente en el intérprete Octave o desde el programa)
ŸCalibración de los modelos del gaze y el ojo del eyetracker (se puede hacer manualmente en Pupil Capture o
desde el programa)
ŸEjecución del experimento
32
Juan Ignacio Contino y Andrés Martín
41:(2020)
ISSN:1668-9178
Fig. 2 Colocación del marco de anteojo en el sujeto.
Fig. 3: 1- Correcto. 2- Incorrecto, ojo descentrado.
3- Incorrecto, ojo fuera del campo visual de la cámara.
4- Incorrecto, cámara desenfocada
Anexo II: Ejemplo - Resultado de archivo CSV
Se exponen a modo de ejemplo solo algunos campos de interés de la tupla y algunos registros del archivo
pupil_positions.csv correspondientes a mediciones de la pupila.
timestamp [s]: estampa relativa de tiempo en que se toma la medida.
index: fotograma más próximo del video grabado.
confidence: validez de la medida - de 0 (mala) a 1 (excelente).
diameter_3d [mm]: diámetro de la pupila.
model_confidence: precisión del cálculo del tamaño de la pupila.
Se obtiene así: Diámetro de pupila = diameter_3d +/- (1 - model_confidence) * diameter_3d
33
41:(2020)
ISSN:1668-9178 Informe Técnico
Referencias Bibliográficas
Brainard, D. H. (1997) “The psychophysics toolbox”, Spatial vision, Vol. 10, N. 4, pp. 433-436.
Eaton, J. W. (2018) GNU Octave version 5.1.0 manual: a high-level interactive language for numerical
computations: https://www.gnu.org/software/octave/doc/v5.1.0/
Kassner, M. Patera, W. and Bullying, A. (2014) Pupil: An Open Source Platform for Pervasive Eye Tracking
and Mobile Gaze-based Interaction. https://docs.pupil-labs.com/
Pieter Hintjens (2019) ØMQ - The Guide: http://zguide.zeromq.org/page:all
The Linux Kernel Development Community (2019) The Linux Kernel documentation.
https://www.kernel.org/doc/html/latest/
The Archlinux Community (2019) Archlinux Wiki: https://wiki.archlinux.org/
Este informe técnico se realizó en el 2° Semestre del año 2019 en el Dpto. de Luminotecnia, Luz y Visión de la
FACET (UNT) en el marco de estudios de Doctorado en Medio Ambiente Visual e Iluminación Eficiente, titulado
“Percepción del movimiento en el rango mesópico” de Juan Ignacio Contino (PUE 114 CONICET).
Juan Ignacio Contino
Ingeniero en Computación, graduado en la Facultad de Ciencias Exactas y Tecnología (FACET) de la
Universidad Nacional de Tucumán (UNT). Becario doctoral (CONICET) del Doctorado en Medio Ambiente
Visual e Iluminación Eficiente, UNT (FACET). Docente de Física del Colegio Salesiano Belgrano. Profesor del
curso “Deep Linux” (UNT/FACET). Se aplicó al campo de las telecomunicaciones en organizaciones
nacionales, de Latinoamérica y de USA (Intraway Corp.). Participó del proyecto de transferencia tecnológica
“DTEC” (ANPCyT/UNT). Su área de especialidad profesional se centra en la implementación de servicios en
redes, la configuración de los ambientes operativos, la optimización de éstos y el diseño de appliances.
Andrés Martín
Licenciado en Filosofía de la Universidad Nacional de Tucumán (UNT). Doctor en Medio Ambiente Visual e
Iluminación Eficiente, graduado en la Facultad de Ciencias Exactas y Tecnología (FACET) de la UNT.
Investigador Adjunto del CONICET en el Instituto de Investigación en Luz, Ambiente y Visión (ILAV), instituto
de doble dependencia UNT – CONICET. Su área de investigación comprende diferentes aspectos de la
percepción visual humana, especialmente la percepción del movimiento, el color y el espacio iluminado. Se
encuentra involucrado en proyectos sobre aplicaciones de los conocimientos perceptuales en diferentes
ámbitos productivos. Realizó publicaciones en importantes revistas de impacto internacional como:
Frontiers in Psychology, Psychology & Neuroscience, Human Perception and Performance.
34
41:(2020)
ISSN:1668-9178
Informe Técnico
Metodología para elaborar un plan de mantenimiento
preventivo para equipos en un laboratorio de
ensayos fisicoquímicos
José Federico Alfaro, Nancy Alves, Berta E. Bello, Susana Chauvet y Julieta Migliavacca
Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán, Tucumán, Argentina.
Resumen
El mantenimiento tiene como principal objetivo asegurar la operación funcionando, brindando la máxima
disponibilidad y confiabilidad de los equipos a un mínimo costo. A pesar de las exigencias de ciertas normas de
calidad, tipo ISO 17025 o ISO 9001, en algunos laboratorios de ensayos al no contar con un sector de
mantenimiento, ni con un plan de mantenimiento, se originan problemas de disponibilidad de sus equipos
debido a fallas inesperadas.
A partir de un diagnóstico de los equipos, la determinación de la criticidad, el relevamiento de actividades de
mantenimiento y las causas más comunes de roturas se ha elaborado una propuesta de metodología para la
elaboración de un plan de mantenimiento preventivo, así como el sistema de seguimiento del mismo.
Como resultado de disponer de un Plan de Mantenimiento Preventivo, en el laboratorio específico donde se
realizó la experiencia, se espera recuperar el 14 % de la producción perdida, calculada en base al historial de
fallas y ensayos realizados en el último año para generar, en el futuro, indicadores para la gestión del
mantenimiento.
Palabras clave: mantenimiento preventivo, laboratorio, equipos, instrumentos.
Methodology to devise a preventive maintenance plan for the equipment of a physico-chemical
testing Lab
Abstract
Maintenance has as its main objective operational operation, providing maximum availability and reliability of
equipment at a minimum cost. Despite the requirements of certain quality standards, type ISO 17025 or ISO
9001, in some test laboratories, as they do not have a maintenance sector or a maintenance plan,
problemsarise in the availability of their equipment due to failures unexpected.
Based on a diagnosis of the equipment, the detection of criticism, the relevance of maintenance activities and
the most common causes of breakage, a proposal for a methodology for the preparation of a preventive
maintenance plan has beendrawn up, as well as the system of monitoring of it.
As a result of having a Preventive Maintenance Plan, in the specific laboratory where the experience was carried
out, wait for 14% of the lost production, calculate based on the history of failures and tests carried out in the
last year to generate, indicators for maintenance management.
Keywords: preventive maintenance, laboratory, equipment, instruments.
35
41:(2020)
ISSN:1668-9178 Informe Técnico
Introducción
La competitividad actual en las empresas las obliga a
encarar un desafío constante para poder cuidar sus
posiciones en el mercado. Aumentar su productividad,
es decir producir más con menos recursos, es uno de
los requerimientos actuales para poder subsistir. Por lo
tanto las políticas de las empresas deben enfocarse en
la mejora continua no sólo como un requerimiento de
excelencia sino también de supervivencia. Es por ello
que concentrar los esfuerzos en la productividad de las
máquinas y/o equipos aumentará el rendimiento de la
empresa. El buen funcionamiento del equipamiento
significa, en algunos casos, poder alcanzar objetivos
de producción planificados.
El mantenimiento tiene como principal objetivo mantener
la operación funcionando, brindando la máxima
disponibilidad y confiabilidad de los equipos a un mínimo
costo. Más específicamente lograr, que se produzcan
la menor cantidad de paradas en las máquinas
y que estén al servicio de la producción la mayor cantidad
de tiempo posible. Sin embargo, adoptar esta
práctica aún en esta época, continúa siendo una
decisión que no todas las empresas están dispuestas a
tomar. Este comportamiento se da en muchos casos
porque no hay conocimientos de las técnicas, los
beneficios y los costos. Se podría decir, por relevamiento
de los laboratorios de la Facultad de Ciencias
Exactas y Tecnología de la Universidad Nacional de
Tucumán que esto se presenta en aquéllos que realizan
determinaciones fisicoquímicas y microbiológicas,
tanto para investigación como para la prestación de
servicios externos. Si bien la exigencias de las normas
hacen que esta situación se vaya revirtiendo en los últimos
tiempos.
En laboratorios de ensayos, el instrumento juega un
rol fundamental, ya que muchas veces el funcionamiento
incorrecto o defectuoso, o la manera de operar
pueden invalidar los resultados y hasta poner en riesgo
al operador del equipo.
Para conseguir que un instrumento dé resultados
fiables es imprescindible evitar que los componentes
principales, se ensucien o contaminen, lo cual depende
a su vez de la naturaleza de los materiales de ensayo
que se analizan, y en el caso de algunas aplicaciones
puede ser el factor más importante para la calidad
analítica. Esto es aplicable en particular a los análisis de
trazas (Villamil Gutiérrez (2005)). Por tanto hay que
reconocer que en muchos instrumentos el manteni-
36
miento es una tarea compartida entre el personal del
servicio técnico del instrumento y los operadores de
los mismos, que sufren un desgaste como consecuencia
del uso y necesitan frecuentes cuidados entre
las visitas del servicio técnico. Sin embargo, los usuarios
se ven obligados con frecuencia a reparar fallas
cuando no es posible conseguir los servicios del
personal de mantenimiento, las fallas se repiten y los
usuarios se familiarizan con el modo de resolverlos. Es
preciso, entonces, que los usuarios elaboren su propio
programa de mantenimiento para los componentes
del sistema que entran en contacto con materiales de
ensayo o que están sujetos a desgaste.
Debido a la dificultad y al desconocimiento de la importancia
de implementar un mantenimiento adecuado
para los equipos específicos que se utilizan en esta
actividad, del relevamiento de los laboratorios de determinaciones
fisicoquímicas y microbiológicas se
determinó que no cuentan con un departamento
enfocado al mantenimiento, ni con un plan de mantenimiento,
lo que origina problemas de disponibilidad
de sus equipos debido a fallas inesperadas, que
pueden generan una parada no programada de las
actividades. Lo que a su vez produce tiempos muertos
y costos elevados. La ausencia de una gestión de mantenimiento
periódico y planificado provoca que el
mantenimiento correctivo sea cada día más frecuente
y el costo de esta actividad más elevada.
La importancia del mantenimiento se deriva por tanto,
de la necesidad de contar con una organización que
permita restablecer rápidamente las condiciones de
operación para reducir al mínimo las pérdidas de producción.
Los equipos poseen piezas intercambiables, insumos y
consumibles que se deterioran con el paso del tiempo
y el uso, los que deben ser reemplazados periódicamente
para asegurar la continuidad en las operaciones
que se llevan a cabo en este laboratorio.
Tradicionalmente se pueden distinguir cuatro tipos de
mantenimiento que se diferencian entre sí por el carácter
de las tareas que incluyen.
El mantenimiento correctivo o arreglo por rotura se
trata de una forma desordenada de aplicar los medios
y los recursos. No es una práctica aconsejable, ya que la
rotura puede ocurrir en cualquier momento. La única
ventaja que tiene este tipo de gestión es que sólo se
actúa cuando el mal ya existe, es decir que genera costos
ante un mal cierto.
José Federico Alfaro, Nancy Alves, Berta E. Bello, Susana Chauvet y Julieta Migliavacca
41:(2020)
ISSN:1668-9178
El mantenimiento preventivo (Tavares (1999)) que
prevé inspecciones según tiempos prefijados por la
experiencia se basa en el uso de información disponible
para tratar de evitar la rotura. Entre las ventajas, se
encuentra la posibilidad de evitar averías costosas y/o
inoportunas; y entre las desventajas están su costo y la
realización de desarmes que pueden resultar innecesarios.
El mantenimiento predictivo constituye una forma o
estilo de realizar el mantenimiento que permite detectar
las fallas por revelación antes que sucedan, usando
equipos de diagnóstico y pruebas no destructivas.
El mantenimiento proactivo está dirigido fundamentalmente
a la detección y corrección de las causas que
generan el desgaste y que conducen a la falla de los
equipos o máquinas. Una vez que las causas que generan
el desgaste han sido localizadas, no se debe
permitir que éstas continúen presentes en los equipos,
ya que de hacerlo, su vida y desempeño, se verán reducidos.
El presente trabajo tiene como objetivo presentar la
metodología usada para diseñar un Programa de Mantenimiento,
para evitar las fallas inesperadas en los
equipos, aumentando la eficiencia de la producción de
resultados de los estudios, en un laboratorio que
realiza determinaciones fisicoquímicas y microbiológicas.
Materiales y métodos
La naturaleza de las actividades de mantenimiento
relevadas, la índole de equipos que posee el laboratorio
y las posibilidades de control por parte del personal,
permiten determinar que el mantenimiento a
efectuarse sobre los equipos de laboratorio debe ser
del tipo preventivo, anticipándose por medio del
reemplazo de piezas y controles periódicos a las fallas
inesperadas que pudieran producirse generando paradas
prolongadas de equipos y por consiguiente una
disminución en la capacidad de prestación de servicios
que posee el laboratorio.
Para diseñar el plan se siguieron las siguientes etapas:
a) Relevamiento de los equipos
Se clasificaron e identificaron los equipos, como paso
fundamental a la hora de establecer un Plan de Mante-
nimiento. Se consideró que una buena clasificación se
basa en la función y posibilidad de reemplazo de cada
uno de ellos. La información relevada consistió en la
descripción, ubicación y codificación.
b) Determinación de la criticidad de los equipos
Se determinó la criticidad de los equipos, con el
objetivo de identificar cuáles son los equipos críticos
del laboratorio, cuya no disponibilidad haría imposible
realizar la mayor parte de los análisis e incurriría en un
retraso importante de los tiempos de entrega de informes.
Para definir la criticidad se definieron 3 niveles:
baja, media y alta, teniendo en cuenta las características
de cada uno de los equipos y la flexibilidad de
poder usar un instrumento provisto por otros laboratorios,
en caso que se produzca algún desperfecto. Por
ejemplo, equipos como balanzas, muflas pueden utilizarse
de otros laboratorios.
c) Relevamiento de las actividades de mantenimiento
Para este relevamiento se tomó información proveniente
de manuales de los equipos y de la experiencia
del propio personal por el uso diario del equipo. De los
manuales existentes se determinaron las actividades y
frecuencias sugeridas por el fabricante. De igual manera
de la experiencia del personal se puede conocer el
tipo de mantenimiento que actualmente se les realiza
a los equipos.
d) Relevamiento de las fallas, frecuencia de
ocurrencia y las tareas realizadas para poner en
funcionamiento los equipos
Para ello se recurrió a la lectura y filtración de los
problemas que se produjeron específicamente en el
laboratorio y que se volcaron a través del tiempo en un
“Cuaderno de Novedades”. En este texto cada miembro
del personal que detecta una anomalía que impide
el curso normal de las actividades de trabajo, o que es
un riesgo potencial, lo reporta al Responsable del Laboratorio
y describe la problemática en el cuaderno
para que este último firme en conformidad.
Del relevamiento de las fallas más comunes detectadas
del cuaderno se ha procedido a clasificarlas en base a
la frecuencia de realización del mantenimiento correctivo
según: largo plazo (mayor de 2 años), mediano
plazo (semanal a anual) y corto plazo (diaria).
37
41:(2020)
ISSN:1668-9178 Informe Técnico
e) Propuesta del Plan de Mantenimiento
Para definir el Plan de Mantenimiento Preventivo se
procedió a discriminar las tareas por equipo a mediano
y largo plazo.
f) Propuesta del sistema de seguimiento del plan de
mantenimiento
El sistema de seguimiento permite realizar un control
de las tareas que se efectúan, su fecha de ejecución y el
responsable, lo que repercute en la organización de las
actividades que se realizan.
La falta de controles sobre las actividades planificadas
podría ser tan ineficaz como la omisión total de cualquier
tipo de mantenimiento. Para solucionar estas falencias
se propusieron distintas alternativas tales
como: la generación de registros por parte del
personal y la posibilidad de realizar el seguimiento del
mantenimiento mediante una hoja de cálculo, que
facilite la gestión y el control, y a la que tenga acceso
únicamente el Responsable del Laboratorio.
g) Cálculo del impacto de las paradas en la
producción del Laboratorio
Para determinar cuanto le cuesta al laboratorio la falta
de un Programa de Mantenimiento Preventivo, se
midieron los tiempos de paradas de los equipos y la
cantidad de ensayos realizados en dicho período para
calcular el porcentaje de ensayos no realizados en
relación a la producción de un determinado período.
Resultados y discusiones
Para desarrollar el Plan de Mantenimiento Preventivo
se han seguido los pasos propuestos en la metodología.
A continuación se detallan los resultados logrados
en cada uno de ellos.
a) Relevamiento de equipos
En esta etapa, mediante entrevistas al personal involucrado,
se logró clasificar e identificar los equipos. Se
registraron 16 equipos en el laboratorio, de los cuales
se ha detectado el estado no operativo de un equipo
(Digestor de Microondas), por falta de mantenimiento.
Pudo observarse también, que los equipos están
ubicados en ambientes corrosivos causados por los
productos químicos que se utilizan cotidianamente al
trabajar en el laboratorio, y que posiblemente ésto
acelere su deterioro.
b) Criticidad de los equipos
Los equipos relevados se clasificaron según la escala
de criticidad: alta, media y baja, detectándose que el
69 % de los equipos están catalogados con una criticidad
de alta a media, los valores obtenidos se
muestran en la tabla 1.
Tabla 1: Clasificación de Equipos por Criticidad
Criticidad
% equipos
Alta 19
Media 50
Baja 31
Fuente: propia
c) Relevamiento de las actividades de mantenimiento
Se ha logrado, a través de los manuales existentes en el
laboratorio, extraer las actividades y frecuencias sugeridas
por el fabricante del 25 % de los equipos, del resto
no se disponía de los manuales o estaban deteriorados
o perdidos.
De los resultados de la investigación con los usuarios
de los equipos se obtuvo un listado de tareas que actualmente
se ejecutan en el laboratorio y están compuestas
por una combinación de aquellas sugeridas
por el fabricante, las que figuran en los manuales y las
que surgieron como resultado de los años de experiencia
de la operación de estos equipos. Éstas últimas son
las que no están contempladas en los manuales de los
fabricantes, dado que algunas de ellas han sido transmitidas
de boca en boca por parte de los representantes
de las firmas constructoras y otras fueron
aprendidas a través de la observación por parte del
personal experto en el manejo de los equipos a lo largo
de años de operación.
38
José Federico Alfaro, Nancy Alves, Berta E. Bello, Susana Chauvet y Julieta Migliavacca
41:(2020)
ISSN:1668-9178
d) Relevamiento de las fallas, frecuencia de
ocurrencia y las tareas realizadas para poner en
funcionamiento los equipos
Se encontró que un importante número de actividades
que se realizan sobre los equipos no son registradas y
que no existe un registro que ayude a prever la próxima
vez que deberían llevarse a cabo y que cumpla la
función de reporte histórico.
Algunas tareas, como ser las que se realizan diariamente
y no presentan mayores dificultades para ser
efectuadas, se ha relevado que son llevadas a cabo por
los mismos analistas que trabajan actualmente en el
laboratorio. Otras tareas, generalmente correspondientes
a un mantenimiento del tipo preventivo y que
requieren de un conocimiento intermedio de los equipos,
son efectuadas por los responsables del laboratorio.
Aquellas actividades de mantenimiento que requieren
un conocimiento profundo de los equipos, se realizan
de manera correctiva y por especialistas pertenecientes
al servicio técnico oficial.
Del relevamiento de las fallas más comunes detectadas
del cuaderno se ha obtenido que la frecuencia
de realización del mantenimiento correctivo corresponden,
a mediano y a largo plazo, con un 42% y 44%
respectivamente y con un 14 %, pero no por ello
carente de importancia, pertenece a las actividades de
mantenimiento diarias.
Como resultado del relevamiento de las actividades de
mantenimiento se construyó una base de datos con
las tareas y la frecuencia con la que cada una debería
ser efectuada.
e) Propuesta del Plan de Mantenimiento
Para definir el Plan de Mantenimiento Preventivo se ha
procedido a discriminar las tareas por equipo a mediano
plazo de las que corresponden a largo plazo, con el
fin de organizarlas en dos cronogramas distintos que
faciliten su visualización y organización.
Para el mantenimiento diario no fue necesario planificarlo
ya que el mismo se llevaba en la práctica y con
su correspondiente sistema de registro. Este consiste
en asentar el tipo de mantenimiento y/o limpieza que
realizan, la fecha y la firma del responsable de la ejecución.
El cronograma de mantenimiento a mediano plazo se
ha conformado para los distintos equipos, con frecuencias
que pueden ser semanales, quincenales,
mensuales, trimestrales, semestrales y anuales. En
cuanto al cronograma a largo plazo, está formado por
las tareas a ser ejecutadas cada 2, 3, 4 o 6 años.
De acuerdo a la fecha estimada de la última realización
de los registros o a la repetición relevada de la tarea, se
procedió a distribuir las acciones de manera que la
carga de trabajo sea lo más equilibrada posible en un
cronograma anual, cuya unidad temporal mínima es
una semana.
Todas las operaciones de mantenimiento pueden ser
efectuadas internamente, es decir, por personal propio
del laboratorio sin necesidad de que tenga que
contactarse al servicio técnico especializado de alguno
de los equipos, por no presentar una gran complejidad
de realización, pues en los manuales pueden encontrarse
los procedimientos de manipulación segura de
insumos y el despiece de las partes.
f) Propuesta del sistema de seguimiento del Plan de
Mantenimiento
Se determinó que la generación de registros por parte
del personal no resulta adecuada porque muchas
veces el responsable de realizar las tareas olvida u
omite la acción de apuntar los ítems en el papel, debido
a la carga de trabajo o bien por mera comodidad.
De esta manera, se diseñó una hoja de cálculo para
evitar malos entendidos o ediciones múltiples del
cronograma de mantenimiento .
En el cronograma elaborado en una hoja de cálculo, la
celda correspondiente a la intersección de la tarea y la
semana en que debe efectuarse esa actividad se encuentra
“coloreada” con un sistema de semáforo
donde el color rojo indica una actividad no efectuada,
el amarillo una actividad planificada y verde una
actividad cumplida o ejecutada, para diferenciarse de
aquellas semanas en las que no hay ningún tipo de
tarea programada. De esta manera, el usuario (en este
caso, el Responsable del Laboratorio) puede distinguir
con una simple observación sobre el cronograma
cuándo corresponde efectuar una actividad de mantenimiento.
39
41:(2020)
ISSN:1668-9178 Informe Técnico
g) Cálculo del impacto de las paradas en la
producción del Laboratorio
A los efectos de evaluar el impacto de las paradas en el
Laboratorio, se ha procedido a analizar las paradas de
los equipos registradas en el cuaderno durante un
período de 12 meses y la cantidad de ensayos realizados
de modo de poder estimar un porcentaje de ensayos
que no fueron posible llevar a cabo como consecuencia
del tiempo perdido por paradas.
Se ha podido deducir que la actividad del laboratorio
es relativamente constante a lo largo del año y no
presenta algún tipo de estacionalidad, salvo una leve
disminución de los análisis en el período estival, a pesar
de trabajar mayormente con clientes involucrados
en la industria tradicional tucumana, como la azucarera
y la cítrica.
A partir de la contabilización de los análisis realizados
en el periodo analizado se pudo calcular el promedio
de análisis realizados diariamente y por hora, considerando
una jornada laboral de 10 horas de personal
trabajando en dos turnos diarios y los feriados y días
no laborales. A partir de esta información se ha calculado
que el total de análisis no realizados durante
los 12 meses analizados representa el 14% del total
efectuado durante el período contemplado.
El disponer de un mantenimiento preventivo programado
en el laboratorio le permite llevar un mejor
control y planeación sobre el propio mantenimiento a
ser aplicado a los equipos. Debido a la programación
de las actividades, la carga de trabajo de mantenimiento
se distribuye de manera uniforme en el personal
destinado para tal fin, ocupando de manera
eficiente los recursos humanos, siendo ésto una particularidad
de las actividades de mantenimiento de un
laboratorio. Para una organización de este tipo el Plan
de Mantenimiento le permite restablecer rápidamente
las condiciones de operación para reducir al mínimo
las pérdidas de producción.
La metodología aplicada le ha permitido al laboratorio
disponer de un Plan de Mantenimiento Preventivo
para los equipos del laboratorio y un mecanismo para
su seguimiento, con lo que logrará reducir la probabilidad
de paradas imprevistas, aumentar los ensayos y
sus correspondientes informes, y por consiguiente,
mejorar la productividad del laboratorio, recuperando
parte o la totalidad del 14% de la producción perdida
por falta de actividades de mantenimiento.
En términos económicos, la implementación del mantenimiento
preventivo eficiente significa la protección
y conservación de las inversiones, la garantía de productividad
y la seguridad del servicio.
Del mismo modo, se espera disminuir las quejas de los
clientes por la demora en la entrega de informes; y por
último, la gestión ordenada de las actividades de mantenimiento,
dará lugar a una mejor administración del
presupuesto para efectuar el sostenimiento adecuado
de los equipos del laboratorio año tras año.
Es necesario plantear como una actividad futura para
el laboratorio, un conjunto de indicadores que le ayuden
a gestionar el mantenimiento como el Tiempo
Medio entre Fallas (MTBF), la Tasa de Fallas, el Tiempo
Medio para la Reparación (MTTR) y por el último la
Disponibilidad, calculada como el MTBF dividido entre
la suma del MTBF y MTTR (Tavares (1999)), para lo que
es fundamental disponer de registro de las paradas y
las actividades de mantenimiento que se generarían al
cumplir el Plan de Mantenimiento.
Conclusiones
Las políticas de las empresas deben enfocarse en la
mejora continua, no sólo como un requerimiento de
excelencia sino también de supervivencia. Es por ello
que concentrar los esfuerzos en la productividad de las
máquinas y/o equipos aumentará el rendimiento de la
empresa. El buen funcionamiento del equipamiento
significa, en algunos casos, poder alcanzar objetivos
de producción planificados. Para ello, es fundamental
contar con una metodología para lograr el mantenimiento
de sus equipos, en especial en los laboratorios,
que realizan determinaciones fisicoquímicas y microbiológicas,
tanto para ensayos de investigación internos
como para la prestación de servicios externos.
La metodología propuesta le permitiría a un laboratorio
de ensayos lograr establecer un Plan de Mantenimiento
Preventivo, basado a la criticidad de los equipos,
el relevamiento de las actividades de mantenimiento
sugeridas por los fabricantes y aplicadas por
los usuarios en base a la experiencia y las causas más
comunes de roturas.
Se ha establecido un cronograma de mantenimiento a
mediano plazo, con frecuencias semanales, quincenales,
mensuales, trimestrales, semestrales y anuales;
y a largo plazo conformado por las tareas a ser ejecu-
40
José Federico Alfaro, Nancy Alves, Berta E. Bello, Susana Chauvet y Julieta Migliavacca
41:(2020)
ISSN:1668-9178
tadas cada 2, 3, 4 o 6 años. Todas las operaciones de
mantenimiento pueden ser efectuadas internamente,
es decir, por personal propio del laboratorio sin necesidad
de que tenga que contactarse al servicio técnico
especializado de alguno de los equipos, ya que ninguna
de ellas presenta una gran complejidad de realización,
pues en los manuales pueden encontrarse los
procedimientos de manipulación segura de insumos y
el despiece de las partes.
Con el Plan de Mantenimiento, basado en las particularidades
de las actividades del laboratorio, le permitiría
recuperar parcial o totalmente el 14 % de los
ensayos no realizados, como consecuencia de actuar
sólo correctivamente o frente a rotura.
Además con el cumplimiento y el sistema de registro le
permitiría en el futuro disponer de los datos para
generar los indicadores como MTBF, MTTR y disponibilidad
de los equipos para mejorar la gestión de mantenimiento.
Bibliografía
García Garrido, S. (2013) Organización y gestión integral de mantenimiento: manual práctico para la
implantación de sistemas de gestión avanzados de mantenimiento industrial. Ediciones Díaz de Santo,
España.
González Fernández, F. J. (2009) Teoría y Práctica del Mantenimiento Industrial Avanzado. FC Editorial,
España.
Referencias Bibliográficas
Tavares, L. A. (1999) Administración Moderna de Mantenimiento. Novo Polo Publicações, Brasil.
Villamil Gutiérrez, J. E. (2005) Manual de mantenimiento para equipo de laboratorio. Área de Tecnología y
Prestación de Servicios de Salud. Unidad de Medicamentos Esenciales, Vacunas y Tecnologías en Salud.
Organización Panamericana de Salud, Washington D. C.
Este trabajo se realizó en el Laboratorio de Ensayos Fisicoquímico de la Estación Experimental Agropecuaria
Obispo Colombres, Las Talitas, Tucumán, en el año 2017.
José Federico Alfaro
Ingeniero Industrial, egresado de la Facultad de Ciencias Exactas y Tecnología de la Universidad Nacional de
Tucumán. Se desempeña en el Sector Industrial.
Nancy Alves
Ingeniera Química, Profesora en Química, egresada de la Universidad Nacional de Tucumán y Magister en
Administración de Empresas de la Pontificia Universidad Católica de Valparaíso, Chile. Profesora Asociada
en la cátedra Organización Industrial. Investigadora categoría IV.
E-mail: nalves@herrera.unt.edu.ar
41
41:(2020)
ISSN:1668-9178 Informe Técnico
Berta E. Bello
Contadora Pública Nacional egresada de la Universidad Nacional de Tucumán. Especialista en Dirección de
Recursos Humanos y en Gerencia y Vinculación Tecnológica. Docente de la Facultad de Ciencias Exactas y
Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT) e Investigador.
E-mail: ebello@herrera.unt.edu.ar
Susana Chauvet
Ingeniera Química. Master en Administración de Empresas y en Ingeniería Ambiental. Docente de la
Facultad de Ciencias Exactas y Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT) y Directora
de Proyectos de Investigación.
E-mail: schauvet@herrera.unt.edu.ar
Julieta Migliavacca
Ingeniera Industrial egresada Facultad de Ciencias Exactas y Tecnología (FACET) de la Universidad Nacional
de Tucumán. Especialista en Ing. Ambiental. Magister en Ing. Ambiental. Docente de la Facultad de Ciencias
Exactas y Tecnología (FACET) en la cátedra “Organización Industrial”. Docente e Investigador - Categoría IV.
E-mail: jmigliavacca@herrera.unt.edu.ar
42
41:(2020)
ISSN:1668-9178
Arte y Opinión
Un soneto escrito en Semana Santa de 2004
Horacio Brizuela
Departamento de Física, Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán, Tucumán, Argentina.
Días antes de la Semana Santa de 2004, Ángel C.,
colega y amigo, me propuso que alquiláramos conjuntamente
una casa en Amaicha del Valle, y que
compartiéramos con nuestras familias unos días de
descanso en aquellos parajes. Acepté de inmediato,
por la generosa y amable disposición de Ángel, y
porque sé que en los valles calchaquíes el otoño es
benévolo, apacible. Los paisajes, virados hacia los
pardos, amarillos y ocres, invitan a la serenidad, al
reposo reflexivo, y quizás a la melancolía. La oblicua
luz de la estación baña la tierra con una luz dorada y
mansa, que recorta las formas contra un cielo que por
diáfano resulta especialmente profundo y la vista llega
tan lejos que se siente más familiar el esquivo concepto
de infinito. En esa magia, el trino de las aves parece
más dulce y cargado de un cierto misterio, como
venido de otros tiempos, en que eran otros los ojos
que miraban esos cerros. Al caminar por cañadas y
lechos secos parece sentirse el letargo milenario de las
piedras. A la noche, la luna pastorea abrumadores
rebaños de estrellas, a las que parece faltarles cielo, de
tantas y tan brillantes ¿Cómo negarme, entonces, a
ese formidable proyecto, de combinar todas estas
maravillas con la siempre grata compañía de Ángel, y
de disfrutar con nuestras familias de esos luminosos y
serenos días?
Así fue que partimos en su auto, un tanto llevado al
extremo de su capacidad, por tener que alojar a cuatro
adultos y cinco niños. Por suerte, Ángel tenía por aquel
tiempo uno de esos prácticos vehículos de marca
francesa, mezcla de cómodo automóvil y de furgón
pequeño. Y por suerte también, el entusiasmo y la
alegre expectativa que nos llenaba, no aportaban ni
peso ni volumen al desmesurado equipaje. Viajar con
Ángel es una experiencia muy feliz y memorable.
Prudente, mesurado en su conducción, llena las horas
y los kilómetros con animados relatos de historias que
ocurrieron por los caminos y localidades que recorremos,
y que él conoce al detalle. También recuerda
vívidamente cómo de niño los recorría con su padre.
De a ratos, para matizar, escuchábamos canciones de
un disco de Lucho Hoyos. Su voz, melodiosa y potente,
ahondaba la belleza del paisaje, que al ritmo del ascenso
mudaba de selváticas quebradas a semidesnudos
cerros de tundra.
Ya, a poco de iniciado el descenso hacia nuestro destino,
tras cruzar el filo de las Cumbres Calchaquíes por
el alto de El Infiernillo, alcanzamos un punto desde
donde la vista podía tenderse por una amplia región
del valle del río Santa María, el antiguo Yokavil, como
lo llamaban los originarios. Directamente al frente,
veíamos la serranía de El Cajón, que obra de límite
Oeste del valle. Sus ásperas laderas repujadas por
vientos y lluvias descienden cambiando del ocre y el
gris de los filos hacia el verde tardío, ya manchado de
pardos, de los pastizales a sus pies. Al fondo del valle,
el río es plata fundida que destella contra el marrón
oscuro de los fértiles limos que dejó en las pasadas
furias del verano. Alamedas dispersas aparecen como
chispas de óleo amarillo agregadas al descuido. En la
banda oeste del río, un poco hacia el Sur, el pueblo de
Fuerte Quemado es una larga fila de manchas
blanquecinas entre arboledas y peñas, que siguen la
traza de la Ruta 40. Sobre la misma banda, hacia el
Norte y un poco hacia arriba de las laderas, se pueden
distinguir las estribaciones que albergan la legendaria
fortaleza de los Quilmes, donde nació y murió la última
esperanza de resistir al español. Más hacia el Norte el
valle se ensancha, y al fondo, ya azulando en la
distancia, se percibe Colalao del Valle, anidada entre
sus viñedos. A los pies de los cerros por los que
descendemos, los caseríos de Los Zazos y Amaicha,
unidos por una fluctuante línea del tenaz verdor de
algarrobos y chañares, parecen geométricos arreglos
de bloquecitos de juguete. En el otoño, desde los
recodos del sinuoso camino, a veces se perciben
misteriosos destellos que surgen fugaces entre los
pliegues de los cerros circundantes, como señales de
secretos espejos. Son bloques de hielo, que
prematuros vientos invernales dejan a su paso en las
umbrías quebradas, y que el sol, ya muy caído hacia el
Norte, no alcanza a derretir. Todo ese pequeño univer-
43
41:(2020)
ISSN:1668-9178 Arte y Opinión
so de historia y paisaje parece encerrado en una
burbuja del más prístino celeste, como creada a partir
de una joya primigenia, eterna, inalterable: el mítico
cielo calchaquí, donde trazan sus sendas invisibles los
astros y los cóndores. En ese punto del camino, en la
conjunción de tantas maravillas, la voz de Lucho,
vibrante de nostalgia, pronuncia desde el disco el
hechizo que perpetúa aquel instante: “Yokavil, tu cielo
me devora”. Ese sentimiento hecho canción acrisoló
todos los elementos en un único y persistente cuadro,
grabado a fuego en el recuerdo.
Ya llegados a Amaicha, comenzamos a descubrir las
pequeñas felicidades que enjoyaron aquellos días. La
casa, ubicada allí donde una calle céntrica al modo
amaicheño, se vuelve discreto pasaje de tierra, ofrecía
espacios y comodidades para que dos familias puedan
convivir en armonía. Los niños, para quienes el propio
viaje ya era en parte aventura, tenían ahora amplios
territorios nuevos para explorar. Los días, confortablemente
tibios, devenían en frescas noches que obligaban
a no descuidar abrigos. Ángel, avezado guía, lideró
caminatas y cortas excursiones por lugares que él
había recorrido en su juventud. Nos señalaba los hitos
urbanos: casas de familias amigas, curiosidades locales,
caminos para llegar a puntos de especial interés.
Así, mi familia pudo conocer la represa de Los Zazos,
que ofrece el eterno encanto de todo lago, y provee de
agua potable a los pobladores; la sorprendente cascada
de El Remate que atruena en su estrecha garganta
de peñas rojizas; una imagen de la virgen tallada por
un filántropo alemán en un antiguo algarrobo, que
parece estar lanzándose al vuelo desde sus raíces. En
los relatos de Ángel, la vieja plaza parecía volver a
poblarse de jóvenes mochileros, que en rueda de mate
y guitarras paladeaban la novedad en las canciones de
Sui Generis, Pedro y Pablo, Lito Nebbia, Luis Alberto
Spinetta... No faltaron cabalgatas, donde en una
oportunidad un caballo arisco nos dio un buen susto,
al lanzarse a un inesperado galope llevando a uno de
los niños. La rápida intervención del dueño de los
caballos puso final feliz al episodio.
Como siempre en Semana Santa, las horas nocturnas
transcurrían sumergidas en la hipnótica luz de una
Luna desmesurada, que imperaba sin rivales en el
cercano cielo. Bajo ese hechizo lunar, sobre el fin de
nuestro paseo, fuimos a comer a un lindo restorán, a la
Yokavil
44
Horacio Brizuela
41:(2020)
ISSN:1668-9178
sazón, del hijo de la dueña de casa. En ese lugar, para
mi beneplácito, una de las paredes estaba cubierta por
una biblioteca, cuyos libros quedaban a disposición de
los clientes. Entre la conversación y las risas, habíamos
degustado sabrosas delicias locales, no recuerdo ya si
respetando la tradición de no comer carne. Y por
supuesto habíamos bebido vino de Cafayate. Tampoco
recuerdo con exactitud en qué momento tomé el grueso
volumen de las Obras Completas de J. L. Borges. Tal
vez fue casi al final de la comida, mientras esperaba mi
postre. Por abundante que haya sido el festín, no considero
completa una comida si no es coronada con
alguna dulzura. Lo cierto es que cuando tomé el libro,
me encontraba en un estado cercano a la beatitud,
producto de los dichosos días vividos, de la abundante
cena y claro está, del generoso vino. En aquel crucial
momento, respondiendo a algún arcano conjuro, el
libro se abrió en la página 813, donde están los sonetos
Ajedrez, I y II. Ya los había leído muchas veces, al
punto de tener en la memoria algunos versos. Pero
algo desconocido obraba aquella noche y al leerlos, los
sentí más contundentes que nunca. Las precisas palabras
me llegaban como con una sonoridad nueva, con
un ritmo nunca antes percibido. Pero esa musicalidad
no era liviana ni grácil, sino que vibraba con asordinado
estruendo, con algo de terrible, algo de final. Las
nítidas imágenes, las certeras metáforas cobraron una
profundidad de sentencia, de dictamen irrevocable.
Transportado por la magia del momento, la poesía devino
en el impiadoso dardo que me inyectó a la propia
sangre el rigor de aquellas cláusulas, y pude sentir con
total convicción, con terminal fatalidad, que nadie
puede proclamarse dueño de su destino. Todos nos
hemos aproximado alguna vez a un pensamiento similar.
Todos, ante un hecho trágico, nos hemos asomado
a esta verdad. Pero aquella noche de revelación, no me
aproximé a ella ni la pensé: la viví.
Creo no haber hablado mucho después de ese arrebatador
instante, o tal vez hablé sin decir nada. Sumido
en esa nueva conciencia, regresé con los demás a
la casa. No dormí bien. De a ratos me asaltaban versos
que repetían, con otras palabras, aquella misma sentencia.
Luego fueron estrofas enteras, reflejos en un
espejo roto, que enunciaban bajo otras formas los
férreos sonetos de Borges y su implacable verdad. Para
liberarme, a la madrugada escribí con apresurada caligrafía,
sobre el primer papel que encontré, algo de lo
que resonaba en mi mente insomne. Así nació este
soneto, que no es imitación ni copia, sino distorsionado
reflejo, atenuado eco, de sus imperiosos originales.
Y no lo escribí por veleidad ni por afán de impos-
tura, sino repito, como vía de liberación. Se ve en él la
impericia, la tosquedad del picapedrero que aspira a
escultor, pero una vez plasmado en el papel, cobró su
propia identidad y ganó el derecho a sobrevivir. Al menos
para mí. Y por supuesto para Ángel, que me
consiente y tolera, hasta celebra, estas torpezas literarias,
con verdadera vocación de amigo.
Ajedrez III
Se ha dividido el mundo en dos:
Ya se enfrentan las huestes ordenadas.
Ya la lenta cadencia de jugadas
Ritualiza la batalla cruel, feroz.
Por la fútil vida de un rey innoble
Se inmolan sin gloria las figuras
Que despliegan amenazas y bravuras
Sobre el llano tablero de odio doble
Con ciencia o con caprichos repentinos
Los jugadores ejercen poderío
Y deparan a sus piezas fin sombrío.
No es más blando el rigor de sus destinos
Y se pierden en el tiempo, ese otro río,
Convencidos de aquel mito, el albedrío.
Horacio Brizuela
45
Visite nuestra página:
ISSN: 1668-9178
REVISTA DE CIENCIAS EXACTAS E INGENIERÍA