30.07.2022 Views

CET 41

Revista de Ciencias Exactas e Ingeniería - Edición 2020

Revista de Ciencias Exactas e Ingeniería - Edición 2020

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

ISSN: 1668-9178

41

AÑO XXIX

NOVIEMBRE 2020

REVISTA DE CIENCIAS EXACTAS E INGENIERÍA



41

FACULTAD DE CIENCIAS EXACTAS Y TECNOLOGÍA

ISSN: 1668-9178

- Edición 2020 -


Año 29 Nº 41 / Noviembre 2020

Revista de propiedad de la Facultad de

Ciencias Exactas y Tecnología

Universidad Nacional de Tucumán

Tucumán – Argentina

Director Científico:

Dr. Ing. Nicolás Nieva

Directora Ejecutiva:

Prog. Univ. Fanny L. Díaz

ISSN 1668-9178

revista@herrera.unt.edu.ar

Autoridades de la Universidad Nacional de Tucumán

Rector Ing. José García

Vicerrector Ing. Sergio José Pagani

Autoridades de la Facultad de Ciencias Exactas y Tecnología

Decano Dr. Ing. Miguel Ángel Cabrera

Vicedecano Mg. Ing. Eduardo Martel

cet Revista de Ciencias Exactas e Ingeniería

Comité Editorial

Docentes e Investigadores de la Universidad Nacional de Tucumán, Facultad de Ciencias Exactas y

Tecnología

Dra. Ana María Sfer. Departamento de Matemática.

Dra. Ana Georgina Elías. Departamento de Física.

Dra. Mónica Cecilia Tirado. Departamento de Física.

Dr. César Francisco Medina. Departamento de Física.

Mg. Ing. Walter Weyerstall. Departamento de Electricidad, Electrónica y Computación.

Dr. Ricardo Díaz. Departamento de Electricidad, Electrónica y Computación.

Dra. Paula Zulema Araujo. Departamento de Ingeniería de Procesos y Gestión Industrial.

Ing. Sandra Corral. Departamento de Geodesia y Topografía.

Dr. Eduardo Roberto Manzano. Departamento de Luminotecnia, Luz y Visión.

Ing. Fernando Flores Blasco. Departamento de Mecánica.

Mg. Ing. Sergio Eduardo Gutiérrez - Departamento de Construcciones y Obras Civiles.

Dra. María Graciela Molina. Departamento de Ciencias de la Computación.

Producción:

Fanny Lía Díaz


41:(2020)

ISSN:1668-9178

Contenido

Editorial - 2

Nicolás Nieva

Investigación y Desarrollo

- Protocolo IPv6: fundamentos y aplicaciones - 3

Sergio Daniel Saade, Carlos Albaca Paraván, Federico Herman Lutz y Javier Ignacio Bilbao

- Refactorización del modelo de navegación en aplicaciones web de comercio electrónico - 15

Carlos Albaca Paraván

Informe Técnico

- Medición del diámetro de la pupila ocular con libertad de movimiento y flexibilidad técnica - 27

Juan Ignacio Contino y Andrés Martín

- Metodología para elaborar un plan de mantenimiento preventivo para equipos en un laboratorio de ensayos fisicoquímicos -

35

José Federico Alfaro, Nancy Alves, Berta E. Bello, Susana Chauvet y Julieta Migliavacca

Arte y Opinión

- Un soneto escrito en Semana Santa de 2004 - 43

Horacio Brizuela

Esta publicación figura en el Directorio de Latindex

Clasificación Decimal Universal (CDU): 001- 891

Director TEL. +54-381-4364093 - Interno: 7719

Asociación Cooperadora FACET: TEL. +54-381-4364093 - Interno: 7803

FAX: +54-381-4363004

E-mail: revista@herrera.unt.edu.ar

El contenido de los trabajos firmados no representa necesariamente la opinión del editor, siendo de exclusiva responsabilidad de los

autores.

Registro de Propiedad Intelectual: Nº 303943 - ISSN 1668-9178

Este número cerró el 30/11/2020 - Suscripción anual: $ 300


41:(2020)

ISSN:1668-9178

Editorial

El presente número de la Revista cet contiene trabajos

recibidos originalmente antes de la declaración de la

pandemia de COVID-19. Posteriormente a esta declaración,

siguió la comunicación entre autores, árbitros y

editores. Ahora bien, por las circunstancias especiales

vividas en los dos últimos años, este número 41 se indexa

y se corresponde con el año 2020. La paradoja

temporal a la que sometemos a nuestra revista para

ponerla en sincronía con el tiempo presente, hará que

el próximo número, 42, se indexe y se corresponda con

el año 2021. Los números 41 y 42 se pueden considerar

como de una etapa de transición de la revista, en

búsqueda de un horizonte de mayores certidumbres

externas que permitan una adecuada regularidad y

periodicidad.

Este número 41 contiene dos trabajos de investigación

y desarrollo (I+D), dos informes técnicos y una sección

de arte y opinión. En el primero de los trabajos,

titulado "Protocolo IPv6: fundamentos y aplicaciones",

los autores, S. Saade y colaboradores, exponen sobre

los aspectos más destacados del protocolo de direccionamiento

lógico y ruteo IPv6 y las principales diferencias

con el protocolo IPv4. Además, nos ilustran

acerca de la necesidad de reemplazo del primero por el

segundo debido a la superpoblación global de direcciones

IPv4 y sobre los primeros pasos de migración

que se están tomando en la Universidad Nacional de

Tucumán en este sentido.

En el segundo trabajo de I+D, "Refactorización del

modelo de navegación en aplicaciones web de

comercio electrónico", el autor C. Albaca Paraván

aborda los conceptos de modelos de una aplicación

web, usabilidad y refactorización, aplicados al proceso

de mejoramiento continuo de diseño de aplicaciones

de internet.

El informe técnico "Medición del diámetro de la pupila

ocular con libertad de movimiento y flexibilidad

técnica", de I. Contino y A. Martín, documenta el

trabajo hecho en la puesta a punto y diseño de un

protocolo para un sistema que toma medidas del

diámetro de la pupila de un sujeto mientras éste

realiza una tarea visual. Se expone también el diseño

de un protocolo para realizar estas mediciones.

Por su parte, en el otro informe técnico, titulado

“Metodología para elaborar un plan de mantenimiento

preventivo para equipos en un laboratorio de

ensayos fisicoquímicos”, los autores J. Alfaro y colaboradores,

proponen una metodología que permitiría

aumentar la eficiencia de la producción de resultados

de los estudios en un laboratorio que realiza determinaciones

fisicoquímicas y microbiológicas.

En este número, además, nuestro colega H. Brizuela

nos propone un ensayo literario, de abundante y

florida prosa en la descripción de paisajes norteños,

pero con un poético final de sello borgeano.

El aforismo de Marshall McLuhan, “el medio es el

mensaje”, es quizás como nunca antes, el lema y el

encanto de las ciencias de la comunicación contemporáneas.

Nos interpela desde la pregunta: ¿La forma

de adquirir la información nos afecta tanto o más que

el contenido de la información? Pues bien, así pareciera

ser. La manera de percibir ciertas realidades

estaría en relación directa con la configuración, textura

y forma de comunicar e informar. Es ineludible,

entonces, fortalecer y ampliar el formato de un intercambio

signado por la filosofía y la estética de las redes

de internet. Sin perder el valor, el rigor y el compromiso

de los contenidos, nuestra querida revista se orientará

hacia ese norte, en busca de acompañar a la marca de

los tiempos. Más novedades, en este sentido, se percibirán

en el transcurso del año 2022.

Nicolás Nieva

Director Científico de “cet”

02


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Protocolo IPv6: fundamentos y aplicaciones

Sergio Daniel Saade, Carlos Albaca Paraván, Federico Herman Lutz y Javier Ignacio Bilbao

Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán, Tucumán, Argentina.

Resumen

El protocolo IPv6 fue estandarizado en el año 1998; sin embargo, su adopción comenzó a realizarse en forma

masiva unas dos décadas después. Con este protocolo se soluciona principalmente el problema de la falta de

direcciones IPv4 (públicas), que son utilizadas para el acceso global a Internet. El presente trabajo expone

sintéticamente los aspectos más destacados del protocolo IPv6, las principales diferencias con IPv4, los

diferentes tipos de direcciones IPv6, los mecanismos básicos para brindar direccionamiento automático a los

nodos que componen una red privada y ciertas modificaciones que se realizaron en la estructura completa de

los protocolos TCP/IP para su correcto funcionamiento. El trabajo también expone el desarrollo de un proyecto

para la migración de la infraestructura de la red privada de la Universidad Nacional de Tucumán hacia este

protocolo.

Palabras clave: IPv6, direccionamiento IPv6, migración IPv6.

IPv6 Protocol: fundamentals and applications

Abstract

The IPv6 protocol was standardized in 1998; however, its adoption began to take place on a massive scale

approximately two decades later. This protocol mainly solves the problem of the lack of (public) IPv4 addresses,

which are used for global Internet access. The present work summarizes the most outstanding aspects of the

IPv6 protocol, the main differences with IPv4, the structure of the different types of IPv6 addresses, the basic

mechanisms for providing automatic addressing to the nodes that conform a private network, and certain

modifications that were made to the complete structure of the TCP/IP protocols for their correct operation. The

paper also describes the development of a project for migrating the infrastructure of the private network of the

Universidad Nacional de Tucumán to this protocol.

Keywords: IPv6, IPv6 addressing, IPv6 migration.

03


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Introducción

Deering y Hinden (1998) estandarizaron el protocolo

IPv6 mediante el RFC 2460 y fue creado con la

intención de reemplazar a la versión 4 del protocolo IP

que hoy en día se utiliza mayormente como acceso a

Internet. La necesidad del cambio apareció principalmente

por el agotamiento global de direcciones

IPv4.

El Registro de Direcciones de Internet de América

Latina y Caribe (2020) informó que, en nuestro contexto

regional, a mayo de 2020 la distribución de

direcciones IPv4 públicas se encuentra en un alto

grado de agotamiento (Fase 3).

Pese a que el protocolo IPv6 tiene más de dos décadas

de estandarización, su adopción comenzó en forma

medianamente masiva desde la mitad de la década

pasada, cuando los principales centros regionales de

registro de direcciones (RIR) comenzaron a entrar en

fase de agotamiento de direcciones IPv4 públicas. Si se

observa la figura 1, Google (2020), se tiene un creci-

miento sostenido del uso de IPv6 a partir del 2015. Se

espera un crecimiento aún mayor con la progresiva

implementación de soluciones de IoT (Internet de las

Cosas) y asociadas, como así también con la extenuación

completa de direcciones IPv4.

En nuestro país, la adopción de IPv6 a mayo de 2020 es

de aproximadamente un 11%. Nader et al. (2015)

muestran el estado de implementación de IPv6 en

nuestro país en 2015, concluyéndose en el mismo una

falta total de uso del mismo. Actualmente, en la República

Argentina solo pueden contratar accesos a IPv6

clientes corporativos, quedando excluido por el momento

el acceso domiciliario, excepto en grandes urbes

como CABA.

Los objetivos de este trabajo son, en primer lugar mostrar

los principales cambios entre el protocolo IPv4 e

IPv6, no solo en el sistema de direccionamiento sino

también en otros protocolos del stack TCP/IP, para finalizar

detallando la implementación del mismo en la red

de la Universidad Nacional de Tucumán.

Fig. 1 Adopción de IPv6 para acceso a Internet a través del tiempo.

04


Sergio Daniel Saade, Carlos Albaca Paraván, Federico Herman Lutz y Javier Ignacio Bilbao

41:(2020)

ISSN:1668-9178

Principales cambios de IPv6 sobre IPv4

Saade (2016) describe las principales diferencias entre

IPv6 e IPv4, las cuales son:

ŸEspacio de direcciones expandido: la longitud del

campo dirección cambia de 32 bits a 128 bits.

ŸArquitectura de direccionamiento mejorada: además

de un incremento en el espacio de direcciones,

éstas poseen una estructura que permite ser subdividida

en dominios de enrutamiento jerárquico que

reflejan la topología real y actual de Internet.

ŸEncabezado más eficiente: se eliminaron algunos

campos de encabezamiento IPv4, agilizando el procesamiento

de paquetes en los routers. Por otra parte, las

opciones en caso de existir, son ubicadas en cabeceras

de extensión (extension headers) al final del encabezamiento

obligatorio.

ŸSeguridad: se utiliza (como cabecera de extensión,

es decir en forma opcional) el protocolo IPSec.

Dentro de los cambios mencionados, el más importante

es el del direccionamiento, a desarrollarse con

ciertos detalles en el presente artículo.

Direccionamiento IPv6

El principal cambio entre IPv6 e IPv4 radica en el direccionamiento:

las direcciones IPv6 tienen una longitud

de 128 bits y su arquitectura difiere considerable-

mente sobre la de IPv4. Incluso la representación es diferente:

una dirección IPv6 es representada con 32 dígitos

hexadecimales, separándose cada 4 dígitos (hexteto)

con un carácter de dos puntos “:”. De esta forma

una dirección IPv6 queda representada por 8 grupos

de 4 dígitos hexadecimales (8 hextetos).

Por ejemplo, la siguiente es una dirección IPv6:

FF02:0000:0000:0000:0000:0000:0000:0001

Para facilidad en la lectura y escritura, se introdujeron

dos formas de abreviatura:

1. Reducción de ceros más significativos de cada

grupo de 4 dígitos: escribiéndose en ese caso, solo a

partir del dígito distinto de cero.

2. Eliminación de un hexteto con todos 0's: en éste

se pueden escribir simplemente dos caracteres “:” en

forma consecutiva.

Usando ambas reglas, la dirección del ejemplo quedaría

escrita en forma abreviada:

FF02::1

Existen tres tipos de direcciones IPv6: direcciones

unicast, multicast y anycast. No existen las direcciones

broadcast siendo reemplazadas por tipos especiales de

direcciones multicast. La figura 2 muestra esquemáticamente

las diferentes direcciones IPv6.

Fig. 2 Clasificación de direcciones IPv6.

05


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Una dirección IPv6 unicast identifica a una interfaz en

un dispositivo más que a un dispositivo en sí. De

hecho, una interfaz física tiene varias direcciones IPv6

asociadas. Dentro de las direcciones unicast las más

destacables son las globales (global unicast) y las de

enlace local (link-local), que se verán a continuación

con mayor detalle.

Direcciones unicast globales

Las direcciones unicast globales son direcciones globalmente

alcanzables en Internet, es decir equivalen a

las direcciones IPv4 públicas. Poseen la estructura

mostrada en la figura 3.

Se distingue a estas direcciones porque los tres

primeros bits tienen el valor 001 (rango del primer

hexteto de 2000 a 3FFF).

La primera porción de la dirección es lo que se denomina

prefijo de ruteo global. Este prefijo es el identificador

de red (NetID) y es otorgada por un RIR (o un

ISP). Típicamente tiene un tamaño de 48 bits (n = 48

en la figura 3).

Luego del prefijo de ruteo global, la dirección continúa

con el ID de subred: a diferencia de IPv4, en IPv6 el

identificador de subred es un campo separado y no

forma parte de la porción del identificador de nodo.

Típicamente esta porción posee un tamaño de 16 bits

(m = 16 en figura 3). El prefijo global de ruteo junto

con el identificador de subred compone lo que se llama

prefijo de subred (la cantidad de bits de éste, constituye

lo que se conoce como longitud del prefijo de

red).

Finalmente se encuentra la porción de InterfazID, equivalente

a la dirección del nodo propiamente dicha de

IPv4. Normalmente este campo posee un tamaño de

64 bits para poder utilizar un esquema de direccionamiento

automático para la generación del

InterfazID.

Un aspecto que debe destacarse en IPv6 es que los

nodos privados tienen configurados una dirección

unicast global. Es decir, los dispositivos privados son

accesibles desde la red pública. No existe el concepto

de direcciones públicas y privadas, como así tampoco

el uso de NAT para su traducción. Si bien esto tiene

como desventaja el hecho de que las interfaces están

expuestas al mundo a través de Internet, no se utilizan

los mecanismos de traducción de direcciones, que

imponen ciertos retardos y por lo tanto latencias en las

aplicaciones.

Direcciones unicast de enlace local

Las direcciones de enlace local son direcciones unicast

confinadas a un único enlace o subred, es decir, un

paquete que posee una dirección de este tipo como

dirección destino, no puede atravesar un router. Estas

direcciones se crean automáticamente con la habilitación

de IPv6 en una interfaz. Por lo tanto, un dispositivo

tiene mínimamente dos direcciones IPv6 unicast

asignadas: una global y una de enlace local.

La principal ventaja de estas direcciones es que un

dispositivo la crea en forma automática cuando se

activa IPv6. Su uso es amplio: por ejemplo, en la

configuración automática de direcciones, como parte

del protocolo NDP (Neighbor Discovery Protocol) y

también para la comunicación entre nodos de una

misma subred.

El formato de estas direcciones se muestra en la figura

4.

Prefijo de Subred

(64 bits)

n bits

(48 bits)

m bits

(16 bits)

(128-m-n) bits

(64 bits)

001

Prefijo de Ruteo Global

Subnet

ID

ID de Interfaz

Fig. 3 Estructurada de IP unicast global.

06


Sergio Daniel Saade, Carlos Albaca Paraván, Federico Herman Lutz y Javier Ignacio Bilbao

41:(2020)

ISSN:1668-9178

10 bits 54 bits remanentes 64 bits

1111111010

(FE80::/10)

ID de Interfaz

(EUI-64, Random o Estática)

Fig. 4 Formato de direcciones unicast de enlace local (link-local).

Se observa que estas direcciones tienen un prefijo de

10 bits (1111 1110 10), con los 54 bits restantes del

prefijo de red (/64) con valor cero. El ID de interfaz

(últimos 64 bits) puede ser obtenido por tres métodos:

ŸEstático o manual, es decir configurado a través del

administrador

ŸUsando el algoritmo EUI-64, basado en la MAC de la

interfaz (Hinden and Deering (1998)).

ŸAleatorio

La figura 5 muestra un ejemplo de una red con el uso

de ambos tipos de direcciones IPv6.

Fig. 5 Ejemplo de direccionamiento IPv6 en una red privada.

07


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Direcciones multicast

Este mecanismo de direccionamiento y difusión de paquetes,

permite que un dispositivo envíe un único paquete

a múltiples destinos. Para identificar el grupo de

dispositivos (receptores), se utilizan las direcciones

multicast.

El esquema de direccionamiento multicast en IPv6 es

mucho más refinado y complejo que en IPv4. La figura

6 muestra el esquema de este tipo de direcciones.

Estas direcciones comienzan con el prefijo FF::/8. Luego

sigue el campo flag, de cuatro bits, que indica el

tipo de dirección multicast, habiéndose definido por el

momento sólo dos:

ŸDirecciones multicast permanentes: valor 0 del

flag. Son direcciones públicas o bien conocidas,

asignadas por IANA.

ŸDirecciones multicast transitorias o dinámicas:

valor 1 del flag. Estas direcciones son asignadas por

aplicaciones a medida que se van creando los grupos

de multidifusión.

A continuación, se encuentra el campo de ámbito (4

bits). Este campo indica el rango de cobertura del

paquete multicast (por ejemplo, subred, toda la red

privada, etc.). De esta forma se reemplazan los

broadcasts, generándose un paquete multicast dirigido

a todos los nodos de la subred.

Finalmente, la dirección contempla al identificador de

grupo de multidifusión de 112 bits de longitud.

Direcciones anycast

Tienen el mismo significado que en IPv4, es decir son

direcciones unicast idénticas asignadas a más de un

nodo físicamente diferente. El paquete IP cuya dirección

destino es anycast, se entrega a aquel cuya

métrica de ruteo es la mejor. Es utilizada principalmente

para el acceso a réplicas de servidores DNS.

Direccionamiento automático

Las direcciones IPv6 unicast globales pueden configurarse

en forma automática sin la intervención de un

administrador. Existen dos métodos para dicha

configuración:

Ÿ Autoconfiguración de direcciones sin estado

08

(SLAAC - StateLess Address Auto Configuration):

con este método, se obtiene el prefijo de red (y su

longitud) de un router mediante un mensaje ICMPv6

1

denominado Router Advertisement (RA). El ID de interfaz

se genera en forma aleatoria o utilizando el

algoritmo EUI-64.

ŸDHCP: utiliza el protocolo DHCPv6 que es similar al

protocolo DHCP para IPv4.

SLAAC

SLAAC está definido por Thomson et al. (2007) en el

2

RFC 4862 . Este método permite obtener direcciones

denominadas sin estado, porque ningún dispositivo

(servidor, router, etc.) mantiene una base de datos

unificada con las direcciones otorgadas a los clientes.

El prefijo de red y su longitud es entregado por un

router, y el ID de interfaz se obtiene a partir de la

dirección MAC del nodo (utilizando algoritmo denominado

EUI-64 modificado) o en forma aleatoria (dependerá

del sistema operativo del cliente).

La figura 7 muestra resumidamente el proceso SLAAC.

Cuando PC1 inicia el proceso de arranque envía un

mensaje de Router Solicitation (RS). El router R1 responde

a RS con un mensaje RA (Router

Advertisement). Dentro del mensaje RA está el prefijo

de red y su longitud, la dirección del router por

defecto, el tiempo de vida de la dirección y otros

parámetros.

PC1 al recibir el RA, adquiere el prefijo de red

(2001:8BFA:1000:1/64). Luego, completa la dirección

IPv6, generando el ID de interfaz. En el ejemplo de la

figura 7 utiliza el método EUI-64 modificado. Por lo

tanto, la dirección IPv6 autoconfigurada resulta:

2001:8BFA:1000:1:22A:C8FF:FEF3:4853

La dirección obtenida permanece en un estado que se

denomina tentativo hasta que se verifica su unicidad

mediante el proceso de detección de dirección duplicada

DAD (Duplicate Address Detection). DAD tiene

un principio de funcionamiento simple: el nodo que

necesita descubrir si existe duplicidad, envía en un

3

mensaje de multidifusión su propia IPv6. Para ello

1 . Tanto RA como RS son mensajes ICMPv6 y forman parte de NDP.

2 . Originalmente definido el mismo año de la creación de IPv6 a través

del RFC 1971. Es decir, IPv6 nació con SLAAC como mecanismo

de direccionamiento automático.

3 . Es interesante destacar que para todo este proceso de SLAAC no se

utiliza el mecanismo de direccionado de broadcast, sino direccionamiento

multicast.


Sergio Daniel Saade, Carlos Albaca Paraván, Federico Herman Lutz y Javier Ignacio Bilbao

41:(2020)

ISSN:1668-9178

8 bits 4 bits 4 bits 112 bits

11111111

(FF::/8)

Flag

Ámbito

ID de Grupo

Fig. 6 Formato de direcciones multicast.

Fig. 7 Mecanismo SLAAC para obtención de direcciones IPv6.

utiliza un mensaje del protocolo ICMPv6 Neighbor

Solicitation (NS) que consulta si algún otro dispositivo

usa dicha IPv6. Si ningún dispositivo contesta dentro

de un cierto período de tiempo, se considera que no

hay duplicidad de dirección. Si algún dispositivo está

utilizando dicha dirección, contestará con un mensaje

de Neighbor Advertisement (NA) y se abortará su uso.

Una vez detectada la unicidad de la dirección IPv6, la

misma pasa del estado tentativo al preferido y puede

ser utilizada.

DHCPv6

Un nodo al estar configurado para obtener su dirección

en forma automática utilizará el proceso SLAAC o

DHCPv6 dependiendo de ciertos parámetros de configuración

del router.

En el caso que se indique obtener la dirección IPv6 vía

DHCPv6, el nodo realiza un intercambio de mensajes

especificado por este protocolo, obteniéndose la

dirección completa junto con las opciones especificadas

en el servidor, Mrugalski et al. (2018).

El protocolo DHCPv6 se asemeja al protocolo DHCP

para IPv4, Saade et al. (2015) realizan un estudio

comparativo entre ambas versiones.

Existen dos particularidades de este protocolo que son

09


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

importantes de destacar:

ŸDentro de las opciones que ofrece DHCPv6, no se

encuentra la dirección del router por defecto ya que la

misma es obtenida del mensaje RA inicial.

ŸDHCPv6, hasta la fecha, no está soportado por el

sistema operativo Android. Por lo que en una red que

emplee tabletas, celulares, y otros dispositivos con

este sistema operativo deberá utilizarse SLAAC.

Deben tenerse en cuenta estas dos consideraciones en

implementaciones reales de configuración automática

de direcciones IPv6, permitiendo incluso seleccionar

el uso de SLAAC o DHCPv6 como mecanismo de

direccionamiento automático.

Finalmente, dependiendo de ciertos flags del mensaje

RA y del sistema operativo cliente, es posible obtener

una dirección tanto por SLAAC como por DHCPv6 (en

ese caso una interfaz tendría asociada dos direcciones

unicast globales).

Modificaciones del resto del stack TCP/IP

Debido a la inclusión de IPv6 en el stack de protocolos

TCP/IP, se generó la necesidad de modificar el funcionamiento

de ciertos protocolos del resto de la arquitectura.

Resumidamente, algunas de las principales modificaciones

que se realizaron en toda la suite TCP/IP para

lograr el funcionamiento global de la arquitectura con

IPv6 son:

ŸEl protocolo ARP que traduce direcciones IPv4 a direcciones

MAC fue reemplazado por mensajes NDP

que realizan tal traducción.

ŸEl proceso de ruteo sigue siendo el mismo que en

IPv4. Las tablas de ruteo se pueden crear y mantener

en forma manual (ruteo estático) y/o en forma automática

(ruteo dinámico) con el uso de protocolos de

ruteo. Estos últimos fueron adaptados de IPv4 a IPv6,

por lo que ahora se tienen nuevas versiones de dichos

protocolos como, por ejemplo, para el caso de ruteo

interior a RIPng (RIPv3), OSPFv3 o EIGRPv6 (propietario

de Cisco) o en el caso de ruteo exterior a BGP-4.

ŸLos protocolos de transporte no alteran en nada su

funcionamiento con IPv6. Es decir, no fue necesario

realizar ninguna modificación en TCP y UDP, excepto

por el cálculo del checksum de los encabezamientos.

Particularmente en el caso de UDP, es obligatorio

realizar el cómputo del checksum en su cabecera, ya

10

que el encabezamiento IPv6 no provee dicho campo.

ŸDNS introduce un nuevo registro denominado AAAA

que permite la resolución de nombres a direcciones

IPv6. También se introducen reglas para el retorno de

direcciones IPv6 e IPv4 en caso que un mismo nombre

de nodo, posea ambas traducciones. El espacio de

nombre para la traducción inversa de direcciones fue

creado debajo de un nuevo dominio denominado

ip6.arpa.

Implementación de IPv6 en la UNT

En el año 2016 desde el Laboratorio de Redes de Computadoras

de la Facultad de Ciencias Exactas y Tecnología

(FACET), se lideró un proyecto de planificación e

implementación de IPv6 en la Universidad Nacional de

Tucumán, FRIDA (2016). Dicho proyecto contó con el

auspicio de LACNIC a través del Programa FRIDA (Fondo

para el Fortalecimiento de Internet en América

Latina y el Caribe).

El proyecto (Saade et al. (2017)) de un año de duración,

permitió la adquisición de equipamiento de red

de última generación y prestaciones para el soporte de

IPv6, tanto en el Centro Herrera como en Rectorado de

la UNT y para experimentación dentro del mencionado

laboratorio.

La figura 8 muestra el diagrama general de la red de la

UNT al día de hoy. Como se observa, se poseen dos

accesos a IPv6: a través de RIU (Red Interuniversitaria)

con prefijo de ruteo global 2800:110:3E00::/48 y a

través de Telecom con prefijo 2001:13d1:3c02::/48.

Dentro de la FACET, tanto los servidores que albergan

los sitios web de las Facultades de Ciencias Exactas y

Tecnología, Ciencias Económicas y Arquitectura y Urbanismo

de la UNT, como el servidor DNS autoritativo

para dichos dominios soportan ambos protocolos

(IPv4 e IPv6). Es decir, cualquier cliente a nivel mundial

podrá acceder a estos servidores con el uso de IPv6 en

forma nativa.

Dentro de la FACET, si bien se implementó y adecuó

toda la infraestructura de servicios para soporte de

IPv6, la diversidad de clientes (en Hardware, Software

y sistemas operativos), no permite por el momento

realizar el despliegue completo; solamente se está empleando

de manera académica IPv6 dentro del Laboratorio

de Redes de Computadoras mediante el uso de

un router propio y entregando las direcciones por el

método de SLAAC.


41:(2020)

ISSN:1668-9178

Sergio Daniel Liliana Saade, del Carlos Valle Abascal, Albaca Paraván, Gustavo Federico González Herman Bonorino, Lutz Pablo y Javier Agustín Ignacio Arévalo, Bilbao

Lidia María Benítez y Sonia Bibiana Benítez

Fig. 8 Diagrama general de la red UNT con direccionamiento IPv6.

Conclusiones

La implementación a nivel mundial de IPv6 como protocolo

de direccionamiento lógico y ruteo viene creciendo

sostenidamente, debido al agotamiento de direcciones

IPv4. Nuestro país no es ajeno a dicha realidad,

con oferta por parte de las empresas de telecomunicaciones

de accesos al backbone IPv6 a través

de diferentes modalidades tanto para clientes corporativos

como hogareños (Claro, desde mayo de 2020,

empezó un proceso de implementación paulatina del

protocolo, brindando direccionamiento IPv6 a algunos

clientes de diferentes zonas de San Miguel de

Tucumán y Yerba Buena).

11


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Por otra parte, es importante ir adecuando las redes

privadas para el uso de dicho protocolo en forma nativa.

Si bien existen técnicas de traducción y de tunelizado

de IPv4 a IPv6, lo ideal es acceder al backbone

con el uso de IPv6 nativo, disminuyendo de esa forma

la sobrecarga que imponen estos métodos.

La Universidad Nacional de Tucumán (UNT) no es ajena

a dicha realidad; con un total de más de diez mil

clientes distribuidos en los sitios mostrados en la figura

8, debe adecuar su infraestructura de red para el

soporte de IPv6.

Este artículo muestra en forma sintética las principales

características de IPv6, ejemplificando con la UNT los

primeros pasos de migración que se están tomando en

ese sentido.

Las principales conclusiones son:

ŸSi bien el cambio de IPv4 no es urgente, debe ser

analizado y planificado por los administradores de

redes privadas, para una transición escalonada.

ŸEn la UNT se encuentra diseñado un esquema general

de migración con pruebas de campo y laboratorio;

además con algunas redes y servidores en funcionamiento

con este protocolo.

ŸEn la planificación, no solo se debe tener en cuenta la

adecuación de equipamiento de comunicaciones sino

también la adecuación de sistemas operativos de servidores

y de clientes, con su correspondiente configuración.

ŸPuesto que esa adecuación conlleva un gran coste y

tiempo de implementación, debe existir una coexistencia

de ambos protocolos IP, por ejemplo, utilizando

técnica de doble pila (Saade (2016)). Con la coexistencia

de protocolos, se puede obtener acceso a

aquellos servidores públicos que aún no ofrecen

servicios sobre IPv6.

ŸLa capacitación es fundamental para el diseño e implementación

de redes IPv6. En ese sentido, dentro de

la asignatura “Protocolos de Comunicación TCP/IP” de

la carrera Ingeniería en Computación, se viene enseñando

la temática en forma sostenida y con profundidad

desde el año 2017.

ŸExisten recursos humanos dentro de la FACET con

conocimientos y experiencia para la migración a IPv6 y

también para brindar capacitación a personal del área

informática dentro y fuera de la UNT. De esta manera

se puede vincular la Unidad Académica con empresas

e instituciones del medio.

Referencias Bibliográficas

Deering, S y Hinden, R. (1998) “RFC 2460: Especificación Protocolo Internet, Versión 6 (Ipv6)”. Documentos

RFC en español [en línea]. Disponible en: https://www.rfc-es.org/rfc/rfc2460-es.txt [Accedido el 13/05/2020].

FRIDA (2016) “Despliegue de IPv6”. LACNIC FRIDA [en línea]. Disponible en:

http://programafrida.net/archivos/project/despliegue-de-ipv6 [Accedido el 13/05/2020].

G o o g l e ( 2 0 2 0 ) “A d o p c i ó n d e I P v 6 ” . G o o g l e I P v 6 [ e n l í n e a ] . D i s p o n i b l e e n :

https://www.google.com/intl/es/ipv6/statistics.html [Accedido el 13/05/2020].

Hinden, R. and Deering, S. (1998) “RFC 2373: IP Version 6 Addressing Architecture”. IETF Tools [en línea].

Disponible en: https://datatracker.ietf.org/doc/html/rfc2373 [Accedido el 13/05/2020].

Mrugalski, T., Siodelski, M., Volz, B., Yourtchenko, A., Richardson, M., Jiang, S., Lemon, T. and Winters,

T. (2018) “Dynamic Host Configuration Protocol for IPv6 (DHCPv6)”. IETF Tools [en línea]. Disponible en:

https://tools.ietf.org/html/rfc8415 [Accedido el 13/05/2020].

Nader, F., Saade, S. y Bilbao, J. (2015) “Estado de implementación de IPv6 en Argentina”, Investigaciones

en Facultades de Ingeniería del NOA, pp. 483-490.

12


41:(2020)

ISSN:1668-9178

Sergio Daniel Liliana Saade, del Carlos Valle Abascal, Albaca Paraván, Gustavo Federico González Herman Bonorino, Lutz Pablo y Javier Agustín Ignacio Arévalo, Bilbao

Lidia María Benítez y Sonia Bibiana Benítez

Registro de Direcciones de Internet de América Latina y Caribe - LACNIC (2020) “Fases de Agotamiento

de IPv4” [en línea]. Disponible en: https://www.lacnic.net/1001/1/lacnic/fases-de-agotamiento-de-ipv4

[Accedido el 13/05/2020].

Saade, S., Albaca Paraván, C., Lutz, F. y Gallardo, A. (2015) “DHCPv6: Una comparativa con DHCPv4”,

Investigaciones en Facultades de Ingeniería del NOA, pp. 483-490.

Saade, S. (2016) Protocolos de comunicación en Internet, Editorial EDUNT, Argentina.

Saade, S., Bilbao, J., Albaca Paraván, C., Lutz, F., Dip, R. y Berettoni, M. (2017) Despliegue del protocolo

IPv6 en la red de la Universidad Nacional de Tucumán, En: 1er. Congreso Latinoamericano de Ingeniería

(CLADI), Entre Ríos, Argentina, pp. 1142-1145.

Thomson, S., Narten, T. and Jinmei, T. (2007) “RFC 4862: IPv6 Stateless Address Autoconfiguration”. IETF

Tools [en línea]. Disponible en: https://tools.ietf.org/html/rfc4862 [Accedido el 13/05/2020].

Este trabajo se realizó en la Facultad de Ciencias Exactas y Tecnología de la Universidad Nacional de Tucumán,

en el marco del Proyecto de Investigación “Comunicaciones y aplicaciones de Internet de las Cosas”, PIUNT

E652/2, que forma parte del programa “Internet de las Cosas: desde los Sistemas Embebidos a las

Aplicaciones”.

Sergio D. Saade

Ingeniero Electricista (Or. Electrónica), graduado de la Facultad de Ciencias

Exactas y Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT) y

M.Sc. en “Electrical and Computer Engineering”, University of California.

Profesor Titular, dedicación exclusiva (UNT). Director de la Especialización de

Posgrado en Integración de Tecnologías Informáticas. Director de Programa de

Investigación “Internet de las Cosas: desde los Sistemas Embebidos a las

Aplicaciones”, PIUNT E652 (2018-2022). Participó en diversas actividades de

extensión y vinculación. Publicó diferentes trabajos de investigación y artículos

en revistas, ademas de 2 (dos) libros de texto del Área Computación.

Contacto vía e-mail a: ssaade@herrera.unt.edu.ar

Carlos Albaca Paraván

Ingeniero en Computación, graduado de la Facultad de Ciencias Exactas y

Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT) y Magister en

Ingeniería de Software. Jefe de Trabajos Prácticos, dedicación exclusiva (UNT).

Docente de la Especialización de Posgrado en Integración de Tecnologías

Informáticas. Participante del Programa de Investigación “Internet de las Cosas:

desde los Sistemas Embebidos a las Aplicaciones”, PIUNT E652 (2018-2022).

Participó en diversas actividades de extensión y vinculación. Publicó diferentes

trabajos de investigación y artículos en revistas.

Contacto vía e-mail a: calbaca@herrera.unt.edu.ar

13


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Federico Herman Lutz

Ingeniero en Computación, graduado de la Facultad de Ciencias Exactas y

Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT). Jefe de

Trabajos Prácticos, dedicación media (UNT). Alumno de la Especialización de

Posgrado en Integración de Tecnologías Informáticas. Participante del

Programa de Investigación “Internet de las Cosas: desde los Sistemas

Embebidos a las Aplicaciones”, PIUNT E652 (2018-2022). Participó en diversas

actividades de extensión y vinculación. Publicó diferentes trabajos de

investigación y artículos en revistas.

Contacto vía e-mail a: fhlutz@herrera.unt.edu.ar

Javier Ignacio Bilbao

Ingeniero en Computación, graduado de la Facultad de Ciencias Exactas y

Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT). Jefe de

Trabajos Prácticos, dedicación media (UNT). Participante del Programa de

Investigación “Internet de las Cosas: desde los Sistemas Embebidos a las

Aplicaciones”, PIUNT E652 (2018-2022). Participó en diversas actividades de

extensión y vinculación. Publicó diferentes trabajos de investigación y artículos

en revistas.

Contacto vía e-mail a: jibilbao@herrera.unt.edu.ar

www.facet.unt.edu.ar/revistacet

14


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Refactorización del modelo de navegación en

aplicaciones web de comercio electrónico

Carlos Albaca Paraván

Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán, Tucumán, Argentina.

Resumen

Palmer (2002), señala que, en los últimos años, la World Wide Web incrementó su tamaño, llegando a más 200

millones de sitios, pero el número real de páginas, sitios y aplicaciones web se incrementó aún más. En este

marco, la usabilidad ha recibido especial atención, tomando típicamente un enfoque de ingeniería en un

intento de identificar un conjunto de principios y prácticas comunes que aseguren que la usabilidad es el

resultado del diseño del sistema. La intención del presente trabajo es definir una aplicación web y sus modelos,

luego introducir la noción de usabilidad, presentar un conjunto de refactorización para el modelo de

navegación de los sitios de comercio electrónico, finalizando con la evaluación de la mejora de la usabilidad en

los sitios.

Palabras clave: usabilidad web, modelo de navegación, refactorización, ingeniería de software.

Navigation Model Refactoring in E-Commerce Web Applications

Abstract

Palmer (2002) points out that in recent years, the World Wide Web has increased in size, reaching over 200

million sites. Indeed, the actual number of pages, sites, and web applications has increased even further. In this

framework, usability has received special attention mainly in the form of an engineering approach as an

attempt to identify a set of common principles and practices that ensure usability is the result of system design.

This work intends to define a web application and its models, then to introduce the notion of usability, present

a set of refactoring for the navigation model of e-commerce sites, ending finally with the evaluation of

usability improvement in the sites.

Keywords: web usability, navigation model, refactoring, software engineering.

15


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Introducción

Ziemer (2002) enuncia que el propósito original de la

World Wide Web se limitó a presentar la información,

pero que hoy en día las aplicaciones web modernas se

han convertido en complejas aplicaciones distribuidas.

Esto es reafirmado por Hassan (2001) que indica que

las aplicaciones web representan más del 30% de aplicaciones

de software en todos los sectores de la industria

y son preferidas sobre las aplicaciones tradicionales.

En este contexto mundial, Garrido et al. (2007) comentan

que la evolución de las aplicaciones no es solamente

impulsada para añadir nuevas funcionalidades,

sino para mejorar su usabilidad, capacidad de mantenimiento

y extensibilidad para futuras y eventuales

adiciones de funcionalidad.

Olsina et. al. (2007) explican que es en este punto

donde la refactorización (o refactoring) entra en

juego, ayudando a los desarrolladores no solo en la

mejora de la calidad del código, sino también

apoyando el proceso de mejoramiento continuo de

diseño de una aplicación web.

Este trabajo se centra en mostrar una porción reducida

de un catálogo de refactorings del modelo de navegación

generado usando diferentes pautas de diseño,

principios, patrones, conceptos y consejos de expertos

sobre usabilidad; y una posterior evaluación del impacto

de éstos.

Para lograr estos objetivos primeramente se abordarán

conceptos de modelos de una aplicación web, usabilidad

y refactoring.

Modelos de una aplicación web

Silva y Mercerat (2001), remarcan que la complejidad

del desarrollo de las aplicaciones web ocurre a diferentes

niveles:

ŸDominios de aplicación sofisticados: financieros, médicos,

geográficos, etc.

ŸNecesidad de proveer acceso de navegación simple a

grandes cantidades de datos multimedia.

ŸLa aparición de nuevos dispositivos para los cuales se

deben construir interfaces web fáciles de usar.

Esta complejidad en los desarrollos de software sólo

puede ser alcanzada mediante la separación de los

asuntos de modelización en forma clara y modular.

Tanto para el UWA Consortium (2002), como para

Schwabe y Rossi (1998) y Koch y Kraus (2002), entre

otros, la mayoría de las metodologías de diseño de

aplicaciones web formalizan el diseño de una aplicación

web a través de tres modelos:

ŸAplicación (información o contenido): detalla los

conceptos necesarios para que se pueda especificar el

contenido disponible para el usuario y cómo éstos

pueden ser accedidos.

ŸNavegación: especifica los conceptos que permiten

al diseñador reorganizar la información para fines de

navegación. Éste debe volver a utilizar los elementos

del modelo anterior para especificar los trozos de

información actuales, junto con las relaciones entre

ellos.

ŸPresentación: define los conceptos necesarios para

que el diseñador especifique cómo es publicado el

contenido en las páginas y cómo se supone que los

usuarios deben llegar a los datos dentro de la misma

página o en páginas diferentes.

Por su lado, Garrido et al. (2009) enfatiza que, la fase

de ejecución (que sigue al diseño) tendrá como objetivo

realizar una aplicación web que refleje las decisiones

de diseño definidas por estos tres modelos, por lo

que, no es sorprendente que los atributos de calidad

(tanto internos como externos) de la aplicación final

dependerán de estas opciones de diseño.

Usabilidad

Existen definiciones de usabilidad propuestas por diversos

autores que lo han hecho desde los diversos

atributos a partir de los cuales la usabilidad puede ser

evaluada, pero la definición más extendida y formal es

la encontrada en el estándar internacional ISO 9241-

11 (1998): “Usabilidad es el grado en que un producto

puede ser usado por determinados usuarios para lograr

sus propósitos con eficacia, eficiencia y satisfacción

en un contexto de uso específico”, donde:

ŸEficacia es la precisión con la que los usuarios alcanzan

las metas específicas.

ŸEficiencia son los recursos asignados en relación con

la precisión y exhaustividad con la que los usuarios alcanzaron

sus objetivos. Normalmente, la eficiencia

suele medirse en términos del tiempo que les lleva a los

16


Carlos Albaca Paraván

41:(2020)

ISSN:1668-9178

usuarios realizar dichas tareas.

ŸSatisfacción es la percepción de agrado y actitud positiva

hacia el uso del producto.

Según esta definición, la usabilidad posee atributos

cuantificables de forma objetiva (eficacia y eficiencia) y

atributos cuantificables de forma subjetiva (satisfacción).

Definición de usabilidad en el modelo de

navegación

Para Conte et al. (2007), la usabilidad aplicada al modelo

de navegación se refiere a los diferentes accesos a

las funcionalidades de la aplicación. Bajo esta perspectiva,

la usabilidad es satisfactoria si las opciones de

navegación que el usuario pueda llevar a cabo permiten

que realice sus tareas de forma eficaz, eficiente y

agradable.

Refactoring

Opdyke (1992) define un refactoring, en el contexto

de la orientación a objetos, como una transformación

sintáctica de código fuente que mejora su estructura

interna, preservando el comportamiento externo.

El refactoring no sólo puede ayudar a los desarrolladores

en la mejora de la calidad del código, sino

también puede apoyar el proceso de mejoramiento

continuo de diseño de una aplicación.

Olsina et al. (2007) define la refactorización de modelo

web a aquellas refactorizaciones que se pueden

aplicar a los modelos de navegación y presentación de

una aplicación web, donde éstas, afectan la forma en

que la aplicación presenta contenidos, permitiendo la

navegación a través de contenidos y proporcionando

capacidades de interacción.

Refactoring en el modelo de navegación

Garrido et al. (2011) define refactoring del modelo de

navegación como un cambio en el modelo de navegación

de la aplicación que preserva:

1. El conjunto de las operaciones de puesta a

disposición por todos los nodos (considerados como

un todo) en el modelo.

2. La accesibilidad de cada operación a través de una

ruta de navegación desde el nodo de origen.

Siguiendo esta definición, según Cabot (2008) y

Garrido et al. (2011), el refactoring del modelo de navegación

incluye:

ŸAgregar enlaces.

ŸModificar el origen o destino de un enlace.

ŸClonar o eliminar un enlace.

ŸAgregar una página (nodo).

ŸClonar o eliminar una página.

ŸCombinar o dividir páginas.

ŸRenombrar nodos, atributos de nodos y operaciones

de nodos.

ŸEliminar nodos inalcanzables o redundantes.

ŸMover contenidos u operaciones entre los nodos

disponibles.

ŸEliminar enlaces redundantes y enlaces de nodos

inalcanzables.

Esta lista no es exhaustiva. Se pueden definir más

refactorings para incrementar la usabilidad mientras

se preserve el comportamiento de la aplicación web

dado por las operaciones y los enlaces para alcanzar

esas operaciones.

El proceso de refactoring

Dos aspectos importantes del proceso de refactorización

son:

1. Cuándo refactorizar (detección de malos olores de

usabilidad): para Garrido et al. (2011), la detección y

corrección incremental de malos olores de usabilidad

simplifica el proceso de evaluación de la usabilidad en

general que los desarrolladores de aplicaciones deben

realizar cuando terminan una aplicación. Las estrategias

para la búsqueda de malos olores de usabilidad

incluyen: pruebas de usuario, realimentación, métodos

de inspección y análisis del uso de web. Además,

hay partidarios de la evaluación heurística, que es el

menos formal de los métodos.

2. Cómo medir los beneficios de la refactorización:

Garrido et al. (2011) también comentan que la mejora

en la usabilidad que las refactorizaciones de modelos

web pueden lograr siempre dependerá del buen criterio

de los desarrolladores en la selección de los cambios

más favorables, es decir, en su capacidad para detectar

los malos olores catalogados. Por ello, siempre

es conveniente realizar una evaluación de las mejoras

(o no) obtenidas en el proceso de refactoring usando

17


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

un marco de evaluación de la calidad web estructurada.

Detección de malos olores de usabilidad

Para la detección de malos olores en el diseño, se

utilizaron las pautas de diseño descritas por Leavitt y

Shneiderman (2006), los principios y patrones de diseño

descriptos por Van Duyne et al. (2003), los consejos

de Toxboe (2004), y los conceptos sobre usabilidad

web introducidos por Brinck et al. (2001) y

Jarrett y Gaffney (2009).

En base a esto, usando el método de inspección, se generó

un catálogo de refactoring aplicables al modelo

de navegación de aplicaciones web de comercio electrónico.

Catálogo de refactorings del modelo de navegación

Los tres refactorings presentados en este trabajo forman

parte de un catálogo mucho más amplio y son

aplicables al modelo navegación de sitios que sean

miembros de la familia de programas web de comercio

electrónico y serán descriptos de forma similar, pero

resumida, a lo que hacen Olsina et al. (2007), Garrido

et al. (2007, 2011) y Distante (2014).

R1. Fusionar elementos de lista de categorías

ŸMalos olores: falta o exceso de elementos en alguna/s

categoría/s de una lista.

ŸMotivación: según lo comentado por la pauta de

diseño “Avoid cluttered displays” de Leavitt y

Shneiderman (2006), la falta de orden o exceso de

elementos en una página lleva a la degradación de la

performance cuando un usuario trata de encontrar

cierta información, por lo tanto, el cliente puede abandonar

el sitio rápidamente, por otro lado, si alguna

categoría no posee elemento alguno, el cliente puede

sentirse frustrado y hasta pensar que eso se trata de un

error del sitio. Para evitar este problema, es necesario

crear listas de categorías sencillas e intuitivas que

permitan al cliente encontrar de manera rápida lo que

está buscando.

Ÿ Ejemplo: la página de inicio del sitio Disquera

MusicShop posee módulos de información que se utilizan

para mostrar diferentes secciones como artículos

recién llegados, próximos lanzamientos, más vendidos,

etc., donde cada sección posee una lista de

categorías y en cada una de ellas se detallan, en un

carrusel los productos correspondientes. Por ejemplo,

la sección “Recién Llegados” posee las categorías CD,

DVD, Vinilos y Blu-ray, donde la categoría CD posee 7

productos, DVD posee 2 productos, Vinilos posee 3

productos y Blu-ray posee 1 producto. La aplicación

del refactoring consistió en reemplazar la lista de categorías

con sus correspondientes carruseles, por un

carrusel único en el que se encuentren todos los productos

de la sección “Recién Llegados”. La versión original

y refactorizada pueden observarse en las figuras

1(a) y (b) respectivamente.

Fig. 1(a) Sección “Recién Llegados” antes de la aplicación del refactoring.

18


Carlos Albaca Paraván

41:(2020)

ISSN:1668-9178

Fig. 1(b) Sección “Recién llegados” después de la aplicación del refactoring.

R2. Incorporar la opción Todas las categorías/Productos

ŸMalos olores: falta de una página o sección que

posea todas las categorías y subcategorías (y productos)

de productos ordenadas alfabéticamente.

ŸMotivación: cuando los clientes conocen la palabra

o frase precisa que están buscando, ellos pueden

encontrarla rápidamente en una lista alfabética. En el

caso específico de los sitios de comercio electrónico

sería una lista que contenga todas las categorías y subcategorías

(y hasta podría contener los productos)

ordenados alfabéticamente o por algún método que

se considere pertinente.

ŸEjemplo: el sitio Light in the Box, posee un menú

vertical fijo en la página de inicio y en el resto de las

páginas el mismo menú, pero visualizado de forma

contraída (www.lightinthebox.com/es). En los mismos,

no existe la posibilidad de ver todas las categorías

que posee el sitio. Para realizar el refactoring, se

agregó en el encabezado del listado de categorías un

enlace llamado “Ver todas” que nos lleva a una página

que contiene todas las categorías y subcategorías del

sitio ordenadas de la misma manera que en el menú

principal. La versión original y las refactorizadas pueden

observarse en las figuras 2(a), (b) y (c) respectivamente.

Fig. 2(a) Listado de categorías antes de la aplicación del refactoring.

19


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Fig. 2(b) Listado de categorías después de la aplicación del refactoring donde se puede observar el agregado de un enlace que se

llama “ver todas” y dirige a una página con todas las categorías del sitio.

Fig. 2(c) Parte de la página “Todas las categorías” resultado del refactoring.

20


Carlos Albaca Paraván

41:(2020)

ISSN:1668-9178

R3. Integrar ventana emergente a una página

ŸMalos olores: utilización innecesaria de enlaces y

ventanas emergentes para mostrar información relevante

y de poca extensión.

ŸMotivación: la cantidad y calidad de la información

que se plasma en la página de un sitio web es determinante

a la hora de retener un cliente. Por ello, es

crucial determinar qué información es relevante para

el cliente y poder darle acceso a ella fácilmente y de

una manera visualmente agradable. Leavitt y

Shneiderman (2006) enuncia que la utilización de

ventanas emergentes para mostrar información es de

utilidad cuando la información a mostrar no es de vital

relevancia o es muy extensa para poder incorporarla a

la página en sí. Hay casos en los que la información no

puede estar en una ventana emergente ya que el

cliente pierde tiempo primero en encontrar el enlace

que abra la ventana y luego en esperar que cargue,

incorporando pasos al proceso pudiendo generar un

malestar en el usuario. Cabe mencionar que, para poder

incorporar la información de la ventana emergente

a la página, es necesario que ésta posea el espacio

suficiente sin que con la incorporación haya una

violación a las pautas de diseño que tratan acerca de la

densidad de información y la organización de los elementos

en la página.

ŸEjemplo: la página de producto del sitio web The

iCase (www.icase.com.ar) posee un enlace a una ventana

emergente que contiene la información sobre el

pago del producto en cuotas. La página de producto

posee una cantidad considerable de espacios en blanco

y la información provista en las ventanas emergentes

es muy poca, por lo que se plantea el uso de

este refactoring para mejorar la navegabilidad de la

página y la densidad de información de la página. En

este caso, se eliminó el enlace a la ventana emergente

y se trasladó la información a la página de producto,

reorganizando la información. Las versiones originales

y la refactorizada pueden observarse en las figuras

3(a), (b) y (c) respectivamente.

Fig. 3(a) Sección de página de producto que contiene el enlace a la ventana emergente antes del refactoring.

21


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Fig. 3(b) Ventana emergente con el detalle de las cuotas.

Fig. 3(c) Sección de página de producto que contiene la información extraída de la ventana emergente después del refactoring.

22


41:(2020)

ISSN:1668-9178

Liliana del Valle Abascal, Gustavo González Bonorino, Pablo Carlos Agustín Albaca Arévalo, Paraván

Lidia María Benítez y Sonia Bibiana Benítez

Evaluación del impacto de los refactorings

Para el proceso de evaluación de usabilidad, se tomó

como base la metodología utilizada por Grigera et al.

(2016) pero modificada y adaptada para el caso particular

de este trabajo.

Definición y planeamiento de la evaluación

El propósito de la evaluación es comparar la usabilidad

antes y después de la aplicación de los refactorings

presentados, con la finalidad de identificar los efectos

que tienen en la usabilidad percibida por los usuarios.

En orden de poder alcanzar los objetivos propuestos

se recurrirá a la utilización de métodos de reportes de

usuario, en los cuales los usuarios reales trabajan con

modelos representacionales de los sistemas. Se tomó

la decisión de utilizar este método ya que no se tiene la

posibilidad de utilizar versiones refactorizadas de las

aplicaciones web usadas para los casos de estudio.

Sujetos y objetos de la evaluación

Para la realización de la evaluación se reclutaron aleatoriamente

120 individuos, divididos en 4 grupos de

30 voluntarios cada uno, que tuvieron el rol de usuarios

finales de los sitios a evaluar, siendo éstos los

sujetos de la evaluación.

Por otro lado, los refactoring aquí mostrados se

aplicaron a 2 sitios de comercio electrónico como caso

de estudio definiéndose como los objetos de la

evaluación.

Para medir el efecto en la usabilidad, se utilizó un

cuestionario apoyado en la utilización de imágenes y/o

videos del antes y después de cada sección de página

refactorizada, generando 4 alternativas diferentes que

se corresponden con los 4 grupos de voluntarios.

Pregunta de investigación y formulación de la

hipótesis

Como se enunció con anterioridad, la eficacia y

eficiencia son atributos de la usabilidad cuantificables

de forma objetiva y la satisfacción es cuantificable de

forma subjetiva.

La forma de medir la eficacia es en función del

porcentaje de acierto obtenido al realizar una tarea, la

eficiencia en función del tiempo que lleva a los

usuarios completar dicha tarea y la satisfacción en función

de la opinión personal acerca del agrado al realizarla.

Al no contar con prototipos refactorizados de las aplicaciones

web del caso de estudio, no se pueden obtener

mediciones objetivas de eficacia y eficiencia, por lo

cual solo se evaluará la satisfacción del usuario frente

al refactoring. Bajo este contexto, la pregunta de investigación,

la hipótesis nula y la alternativa serían las

siguientes:

ŸPregunta de investigación: ¿Es la satisfacción afectada

por el refactoring?

ŸH : La satisfacción del usuario es igual para el sitio re-

0

factorizado y el sitio original.

ŸH : La satisfacción del usuario es diferente para el si-

1

tio refactorizado y el sitio original.

Factores, variables de respuesta y métricas

El factor de este experimento es el uso del proceso de

refactoring, donde el factor tiene dos niveles de tratamiento:

aplicar o no el proceso de refactoring. Para

cada problema (objeto) se muestran dos versiones de

la aplicación web, una refactorizada y otra no.

La variable de respuesta para responder la pregunta

de investigación planteada anteriormente es la satisfacción

en el uso, cuya métrica es un valor numérico

que se obtiene de la suma de los puntajes obtenidos

en cada pregunta que se realiza sobre los refactoring.

La métrica de cada pregunta es una escala de 5 puntos

en la escala de Likert capturada con un cuestionario.

El instrumento

El instrumento elegido para la recolección de los datos

fue el cuestionario. La decisión de haber creado un

cuestionario de satisfacción propio se fundamenta en

que los que existen son demasiado genéricos y no

tienen el poder suficiente para extraer todas las características

relacionadas con los refactorings.

Entre los distintos tipos de cuestionarios se eligió el

tipo on-line, confeccionado a través de los formularios

de Google, ya que con este tipo de cuestionario se

puede tener rapidez, tanto en la elaboración y difusión

del cuestionario como en el envío de la respuesta,

tiene un coste muy bajo y ausencia de sesgo por parte

del entrevistador.

23


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Diseño de la evaluación

El diseño experimental elegido fue un diseño aleatorizado

sencillo. Se eligió este diseño debido a que se

tiene un único factor (el proceso de refactoring) con

dos alternativas o niveles (aplicar o no el proceso).

Amenazas a la validez

Se tomaron todas las acciones preventivas para evitar

las amenazas a la validez de la conclusión (bajo poder

estadístico, fiabilidad de la medición y confiabilidad

en la implementación del tratamiento), la validez interna

(maduración, instrumentación y selección) y externa

(interacción de selección y tratamiento, e interacción

de fijación y tratamiento).

Análisis e interpretación de los resultados

Para realizar el análisis se utilizó la prueba U de Mann-

Whitney bilateral o de dos colas, ya que se quiere probar

que una muestra (aplicación del refactoring) es

significativamente diferente que la otra (no aplicación

del refactoring). Con esta prueba no paramétrica para

muestras independientes, para cada refactoring mostrado

en el trabajo se puede aceptar o rechazar la hipótesis

nula y en función de las medias de H 0 y de H 1,

concluir si el refactoring mejoró o empeoró la satisfacción

del usuario.

Para llevar a cabo la prueba de hipótesis se eligió un

nivel de significancia α = 0,05 (implica que el investigador

tiene 95% de seguridad para generalizar los

resultados sin equivocarse y solo 5% en contra) y el

tamaño de todas las muestras independientes fue de

n=30 (valor superior al n=20 recomendado).

Luego de elegir los métodos y parámetros adecuados,

se procedió a analizar los datos con el software Excel

con el complemento XLSTAT.

La tabla 1 muestra los resultados de las pruebas de

hipótesis realizadas a los refactoring, donde un valor

de p < 0,05 (valor p < α) implica que el refactoring

tuvo un resultado significativamente diferente

(permitiendo rechazar la hipótesis nula), y en ese caso,

si se puede concluir que el refactoring mejoró

la satisfacción del usuario.

Tabla 1: Resultados de las pruebas de hipótesis realizadas a

los refactoring

De la tabla 1 se puede observar que 2 de los 3

refactorings presentados y evaluados mostraron una

mejoría en la satisfacción del usuario, por lo que se

puede concluir que la aplicación de estos refactoring

es beneficiosa para los usuarios de las aplicaciones

web ya que mejora la satisfacción de los usuarios. Por

otro lado, vale destacar que el refactoring R1 no generó

cambios por lo que su aplicación es indiferente a

la satisfacción del usuario.

Conclusiones

Las aplicaciones web y especialmente los sitios de comercio

electrónico, han adquirido un lugar preponderante

en la vida de los usuarios, siendo necesario

aplicar los conceptos de usabilidad web para optimizar

la interacción del usuario al momento de hacer

compras. Estos conceptos involucran la necesidad de

realizar cambios a las versiones actuales de los sitios de

comercio electrónico, siendo estos cambios denominados

refactorings.

Los refactorings presentados en este trabajo están basados

en hacer cumplir diferentes pautas de diseño y

patrones de diseño web ampliamente difundidos, y se

pueden aplicar a los modelos de navegación de los sitios

de comercio electrónico, afectando diferentes factores

de usabilidad.

24


41:(2020)

ISSN:1668-9178

Liliana del Valle Abascal, Gustavo González Bonorino, Pablo Carlos Agustín Albaca Arévalo, Paraván

Lidia María Benítez y Sonia Bibiana Benítez

Como caso de estudio, estos refactorings fueron aplicados

a dos miembros de la familia de programas de

comercio electrónico, donde se pudo apreciar que no

todo es positivo con el proceso de refactoring, ya que

la evaluación de la usabilidad resulta ser un proceso

costoso y que requiere tiempo (difícil de realizar sin

contar con los recursos necesarios). Además, a la hora

de la implementación en los diferentes miembros de la

familia de programas estudiados, la evaluación de la

satisfacción como atributo de la usabilidad, demostró

que no todos los refactorings propuestos mejoran la

satisfacción ni los factores de usabilidad que afectan

cada uno.

Por último, se puede concluir que, al trabajar con

miembros de la familia de programas de comercio

electrónico, los resultados mostrados en este trabajo

pueden hacerse extensivos a todo miembro de la

familia de programas de comercio electrónico.

Referencias Bibliográficas

Brinck, T., Gergle, D. and Wood, S. D. (2001) Usability for the Web: designing Web sites that work. Morgan

Kaufmann.

Cabot, J. and Gómez, C. (2008) A catalogue of refactorings for navigation models. In Web Engineering.

ICWE'08. Eighth International Conference on, pp. 75-85. IEEE.

Conte, T., Massolar, J., Mendes, E. and Travassos, G. (2007) Usability Evaluation Based on Web Design

Perspectives, En: IEEE/ACM 1st ESEM, Madrid, España, pp. 146-155.

Distante, D., Garrido, A., Camelier-Carvajal, J., Giandini, R. and Rossi, G. (2014) Business processes

refactoring to improve usability in E-commerce applications. Electronic Commerce Research, 14(4), pp. 497-

529.

Garrido, A., Rossi, G. and Distante, D. (2007) “Model refactoring in web applications”, En: 9th IEEE Int.

Symposium on Web Site Evolution, pp. 89-96.

Garrido, A., Rossi, G. and Distante, D. (2009) “Systematic improvement of web applications design”.

Journal of Web Engineering, vol. 4, Nº 8, p. 371.

Garrido, A., Rossi, G. and Distante, D. (2011) “Refactoring for usability in web applications”, IEEE

Software, vol 3, Nº 28, pp. 60-67.

Grigera, J., Garrido, A., Panach, J. I., Distante D. and Rossi, G. (2016) “Assessing refactorings for usability

in e-commerce applications”, Empirical Software Engineering, Vol. 3, Nº. 21, pp. 1224-1271.

Hassan, A. (2001) “Architecture Recovery of Web Applications”. Tesis, Maestría en Matemáticas en Ciencias

de la Computación. Universidad de Waterloo.

International Organization for Standarization (1998) Guidance on usability. ISO 9241-11.

Jarrett, C. and Gaffney, G. (2009) Forms that work: Designing Web forms for usability. Morgan Kaufmann,

Oxford, U.K.

nd

Koch, N. and Kraus, J. (2002) The expressive power of UML-based web engineering, En: 2 Int. Workshop

on Web Oriented Software Technology, Málaga, España.

Lau, S. Q. (2006) “Domain analysis of e-commerce systems using feature-based model templates”. Tesis,

Maestría en Ciencias Aplicadas en Ingeniería Eléctrica e Informática. Ontario, Canada: University of

Waterloo.

25


41:(2020)

ISSN:1668-9178

Investigación y Desarrollo

Leavitt, M. O. and Shneiderman, B. (2006) Based Web Design & Usability Guidelines. Health and Human

Services Dept (U.S.).

Olsina, L., Rossi, G., Garrido, A., Distante, D. and Canfora, G. (2007) “Incremental Quality Improvement in

Web Applications Using Web Model Refactoring”, En: 1st Int. Workshop on Web Usability and Accessibility,

pp. 411-422.

Palmer, J. (2002) “Web site usability, design, and performance metrics,” Information systems research, vol.

13, pp. 151-167.

Schwabe, D. and Rossi, G. (1998) An object oriented approach to web-based application design, En: Theory

and Practice of Object Systems, Wiley, Estados Unidos.

Silva, D. and Mercerat, B. (2001) "Construyendo aplicaciones web con una metodología de diseño

orientada a objetos.", Revista Colombiana de Computación, vol. 2 Nº. 2, pp. 79-98.

Toxboe, A. (2004) UI Patterns - User Interface Design Pattern Library. Disponible en: ui-patterns.com

[Accedido: 16/05/2013].

UWA Consortium (2002) The UWA Approach to Modelling Ubiquitous Web Applications, En: Conference

“IST Mobile & Wireless Telecommunications Summit 2002, towards Ubiquitous Communications”,

Thessalonoki, Greece.

Van Duyne, J. Landay and J. Hong. (2003) The Design of sites: Principles, processes and patterns for

crafting a customer-centered web. Addison-Wesley, Boston, E.E.U.U.

Ziemer, S. (2002) An Architecture for Web Applications, En: Distributed Information Systems, vol. 8914, pp.

9-11.

Este trabajo se llevó a cabo en el marco del desarrollo de tesis de Maestría en Ingeniería de Software (FI-UNLP),

del Ing. Carlos Albaca Paraván, titulada “Refactorización de los modelos de navegación y presentación de la

familia de programas web de comercio electrónico”.

Carlos Albaca Paraván

Ingeniero en Computación, graduado de la Facultad de Ciencias Exactas y

Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT) y Magister en

Ingeniería de Software. Jefe de Trabajos Prácticos, dedicación exclusiva (UNT).

Docente de la Especialización de Posgrado en Integración de Tecnologías Informáticas.

Participante del Programa de Investigación “Internet de las Cosas:

desde los Sistemas Embebidos a las Aplicaciones”, PIUNT E652 (2018-2022).

Participó en diversas actividades de extensión y vinculación. Publicó diferentes

trabajos de investigación y artículos en revistas.

Contacto vía e-mail a: calbaca@herrera.unt.edu.ar

26


41:(2020)

ISSN:1668-9178

Informe Técnico

Medición del diámetro de la pupila ocular con

libertad de movimiento y flexibilidad técnica

Juan Ignacio Contino y Andrés Martín

Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán, Tucumán, Argentina.

Resumen

Los estudios de la visión humana requieren con frecuencia medir el tamaño de la pupila de un sujeto. Esta tarea

es compleja por un número de razones, y es un tema de especial interés en los diseños experimentales. La

medición se realiza tradicionalmente con dispositivos que detectan las pupilas y siguen su movimiento,

llamados eyetrackers. Los eyetrackers requieren que las medidas se tomen de tal manera que el sujeto mantenga

una posición corporal determinada o de movilidad restringida, limitando las tareas posibles en un

experimento. Para solucionar estos inconvenientes se puede optar por un eyetracker que consta de una cámara

fijada a un marco de anteojos (y permite el movimiento libre del sujeto), con facilidades de conexión. Este

informe técnico documenta el trabajo hecho en la puesta a punto de un sistema que toma medidas del

diámetro de la pupila de un sujeto mientras éste realiza una tarea visual. Se diseña también un protocolo para

realizar estas mediciones. Para controlar el dispositivo se diseña un sistema instalable en dispositivos pequeños

portátiles o PCs (placas capturadoras). El sistema final es capaz de adquirir mediciones de pupila que permiten

libertad de movimiento al sujeto y portabilidad de todo el sistema a nivel software y hardware.

Palabras clave: eyetracker, pupila.

Measurement of the ocular pupil diameter with freedom of movement and technical flexibility

Abstract

Studies of human vision frequently require measuring the size of a person's pupil. This is a complex task, for a

number of reasons, and is a topic of particular interest in experimental designs.The measurement is

traditionally done with devices that detect the pupils and follow their movement, called eyetrackers.

Eyetrackers require that measurements be taken in such a way that the person maintain a certain body position

or restricted mobility, limiting the possible tasks in an experiment. An eyetracker consisting of a camera fixed to

an eyeglass frame (and that allows free movement of the person), with connection facilities, can be used to

overcome these drawbacks. The present technical report documents the work done in setting up a system that

takes measurements of a person's pupil diameter while performing a visual task. A protocol is also designed to

perform these measurements. To control the device, a system that can be installed on small portable devices or

PCs is designed. The final system is capable of acquiring pupil measurements that allow freedom of movement

to the person and the portability of the entire system at the software and hardware level.

Keywords: eyetracker, pupil.

27


41:(2020)

ISSN:1668-9178 Informe Técnico

Introducción

La técnica de la medición de pupila es hoy ampliamente

utilizada, se encuentra desarrollada, y se realiza con

dispositivos que detectan las pupilas y siguen su movimiento

llamados eyetrackers, denominación que se

utilizará en adelante. Sin embargo, esta tarea tiene algunas

dificultades asociadas, como el traslado del dispositivo,

la complejidad de la conexión de este equipo

con PCs (placas capturadoras) y la movilidad del sujeto

en el experimento. Los eyetrackers se pueden subdividir

entre los que necesitan que los sujetos mantengan

una posición determinada y fija de su cabeza durante

el desarrollo del experimento y los que dan ciertos

grados de libertad en su movimiento. Siempre que

el experimento lo permita, es deseable que el sujeto

pueda moverse. Una tarea con un diseño que requiera

mantener la posición de la cabeza de un sujeto fija provoca

agotamiento cuando estos experimentos son

prolongados. Esto lleva a pérdidas de atención, entre

otros efectos, interfiriendo de manera indeseada en el

rendimiento de un sujeto en la tarea.

Las mediciones de pupila que se hacen tradicionalmente

en el Departamento de Luminotecnia, Luz y

Visión de la Facultad de Ciencias Exactas y Tecnología

(FACET), Universidad Nacional de Tucumán (UNT) se

realizan con eyetrackers de ambos tipos, con dispositivos

Cambridge Research System Eyetracker Toolbox

y Arrington Research ViewPoint EyeTracker. El último

permite realizar mediciones con libertad de

movimiento, pero su conexión con una computadora

requiere de la compra e instalación de placas adquisidoras

de datos específicas y su software solo se

encuentra disponible para un sistema operativo determinado,

lo que dificulta su uso, y al final, su portabilidad.

Para solucionar estos problemas se adquiere

un nuevo eyetracker y se adapta un sistema de

software y hardware para poner a punto un equipo

que se utilizará en las futuras configuraciones experimentales

psicofísicas. El sistema final necesita de un

dispositivo de hardware donde implementar la solución

que soporte el software del eyetracker comprado

para manejarlo y ejecutar los experimentos.

Se plantea realizar una solución de software portable

entre hardware de distintos formatos que facilita la

movilidad de los experimentos a entornos de campo

abierto. Para este informe, la implementación se realiza

en hardware de formato PC. Sin embargo, la confi-

guración final es instalable en otros dispositivos de

manera nativa.

El hardware utilizado, la puesta a punto del software

del eyetracker y la configuración del software adicional

del sistema para diseñar estímulos psicofísicos

son el aporte que se detalla y se documenta en el

trabajo. También se diseña un protocolo adecuado

para la utilización de la solución final.

Eyetracker

El fabricante del eyetracker es Pupil-Labs y su modelo

es Pupil Core (Kassner et al. (2014)). Este dispone de

conexión USB para su control y se distribuye con un

software de eyetracking que es necesario configurar,

calibrar y comunicar con otros programas que corren

los experimentos para coordinar las mediciones en los

momentos adecuados.

Fisonomía

Se conforma de un marco de anteojo al que se agregan

módulos con funcionalidades específicas (ver figura

1).

El dispositivo del que se dispone incluye una cámara de

alta frecuencia de captura de fotogramas para el ojo

derecho y una cámara frontal. Las especificaciones de

las cámaras (Kassner et al. (2014)), se observan en la

tabla 1.

Fig. 1 Pupil Eyetracker Core - marco y cámaras. Imagen

pública tomada de https://pupil-labs.com/products/core/

28


Juan Ignacio Contino y Andrés Martín

41:(2020)

ISSN:1668-9178

Tabla 1: Especificaciones de las cámaras

Software del eyetracker

La suite de software de Pupil-Labs hace de nexo entre

el eyectracker y el equipo donde se conecta. Se implementa

en Python y en C, su código fuente está disponible

y es multiplataforma (soportado en Windows y

en GNU/Linux), (Kassner et al. (2014)). La suite consta

de 3 programas:

1. Pupil Capture: captura video de las cámaras;

implementa modelos: Ojo, Gaze; calibra modelos y

genera datos (extensible mediante plugins).

2. Pupil Player: visualiza grabaciones y exporta datos.

3. Pupil Service: Interfaz IPC.

Medición

En el diseño de la solución se considera un caso de medición

genérica en tareas controladas. De este modo,

el sistema final se puede usar en una amplia gama de

experimentos con requisitos muy distintos. Se concibe

una medición con las siguientes características:

ŸAutomática: debe realizarse de manera automática

sobre uno de los ojos del sujeto.

ŸControlable: debe poder darse inicio y final al proceso

de medición desde un programa diseñado en los momentos

requeridos.

ŸFrecuencia: deben ejecutarse con frecuencia de entre

20 y 30 mediciones por segundo.

ŸEstampa Temporal (timestamp)[s]: debe proveer la

referencia temporal del momento al que se corresponde

la medición.

ŸDato [mm]: debe proveer claramente diámetro de la

pupila, que es el parámetro buscado.

ŸConfiable: debe proveer un parámetro que determine

la calidad de la medida.

ŸPresentación: debe proveer los datos en un archivo de

campos separados por coma (CSV).

Un protocolo apropiado para ejecutar la medición

puede ser el propuesto en el Anexo I.

Diseño del sistema de medición

El diseño del sistema final tiene componentes de

hardware y de software y responde a las premisas:

ŸDebe ser implementable en el hardware disponible

del laboratorio (Arquitectura x86_64).

Ÿ Debe ser portable a hardware más pequeño de

arquitectura x86_64 (AtomicPi, mini PCs) y de

arquitectura ARM (Odroid, Raspberry Pi).

Hardware

Para armar el sistema se dispone de una PC cuyo CPU

tiene tecnología que data del año 2008 y una GPU del

año 2009. Se consigue un uso equilibrado de este

hardware con 4GB de memoria RAM Dual Channel

DDR2. Hardware disponible:

Ÿ Motherboard: ASRock N68C-GS FX

Ÿ CPU: AMD Phenom 8650 Triple-Core

Ÿ GPU: NVIDIA GeForce 210

Ÿ Memoria: 2 x 2GB DDR2 1066 Hz Dual Channel

Software

Es necesario disponer de los programas pertenecientes

a la suite de Pupil-Labs en el sistema final. Hay que remarcar

que este software está pensado para ser usado

en computadoras actuales y además está escrito en un

lenguaje interpretado. Ambas cualidades suponen un

consumo notable de recursos computacionales para

un sistema moderno y es una de las cosas a tener en

cuenta para el diseño del sistema final.

Realizar el trabajo con el hardware disponible es una

29


41:(2020)

ISSN:1668-9178 Informe Técnico

potencial limitación para la obtención de las mediciones

con la frecuencia esperada. Esto también influye

en otros parámetros, por ejemplo: resolución del

video grabado, postprocesado de la imagen, uso de

plugins en el software de control del eyetracker, etc.).

Según cómo se concibe la solución, el software de la

instalación debe resolver los siguientes problemas en

el siguiente orden de prioridades:

1. La distancia generacional del hardware

La interfaz gráfica de usuario (GUI) del software del

eyetracker está escrita en Python. Las funciones de los

modelos del ojo que implementa la suite están escritas

en C y hacen uso intensivo de librerías matemáticas

(BLAS, OpenCV, OpenGL, Ceres Solver, etc), (Kassner

et al. (2014)). Este problema es el más importante de

todos, ya que determina si la solución puede implementarse

o no. Hay sistemas operativos que se pueden

utilizar en hardware antiguo, pero no soportan las

librerías que implementan las funciones matemáticas

de la suite de Pupil (incompatibles a nivel arquitectura),

o no lo hacen con la performance necesaria para

la tarea (problema generacional).

Para solucionar este inconveniente se elige un sistema

operativo con kernel Linux. Este kernel soporta el

hardware en toda la gama generacional del caso de

uso, (The Linux Kernel Development Community

(2019)). Un sistema operativo basado en ese núcleo

soporta también el software del eyetracker de Pupil-

Labs. Sobre este kernel se puede construir un sistema

operativo a medida con mucha flexibilidad, lo que

permite completar el resto de la configuración. Se

compila el kernel desde el código fuente para la arquitectura

del procesador y el hardware presente para

evitar gastos de recursos computacionales en funcionalidades

que no se utilizan (el procedimiento está

fuera del alcance de este informe). Se usa el código

fuente correspondiente al día 15/09/2017. Se utiliza

para el resto del sistema la distribución de paquetes de

Archlinux (Rolling Release).

2. La elección del lenguaje de programación para

escribir los experimentos

El lenguaje que se usa tradicionalmente para implementar

los experimentos psicofísicos en el Departamento

de Luminotecnia, Luz y Visión (FACET/UNT) es

MATLAB. MATLAB no se puede usar en esta solución,

ya que:

ŸSus requisitos de hardware superan en demasía a las

características de equipo del que se dispone.

ŸEl valor económico de su licencia es elevado.

ŸNo está disponible en la arquitectura ARM.

En su lugar se utiliza Octave. Octave es un lenguaje cuyo

intérprete es casi completamente compatible con el

intérprete de MATLAB. Este software tiene requerimientos

mínimos de hardware. Además, cuenta con

las siguientes ventajas respecto del software tradicional:

ŸPuede ser optimizado para la arquitectura compilando

desde el código fuente.

ŸNo necesita un GUI que consuma recursos.

ŸSus dependencias son nativas del sistema operativo.

ŸSe desarrolla nativamente para el sistema operativo.

Se instala Octave 4.2.1, (Eaton (2018)).

3. Los requisitos de las características de la medición

Para obtener el grado de control y confiabilidad de la

medición requerido en el sistema, es necesario programar

también estas mediciones en lugar de dejar que el

software del eyetracker haga este trabajo de manera

independiente. La manera correcta de hacer esto es

comandar las mediciones desde dentro del código del

experimento escrito, sincronizándolas con los eventos

apropiados. Para esto, la suite de Pupil-Labs provee un

medio de comunicación TPC/IP mediante el cual el

software del eyetracker queda esperando órdenes

externas que se pueden estructurar en el código del

programa.

Para solucionar esta comunicación se instala un complemento

del lenguaje Octave que implementa la

librería ZeroMQ, (Pieter Hintjens (2019)). Esta librería

es portable y permite la comunicación entre procesos

de un mismo equipo o de equipos de una red mediante

el conjunto de protocolos TCP/IP. De esta manera, se

puede controlar el algoritmo que maneja las cámaras

del eyetracker, la calibración de los algoritmos Ojo y

Gaze, etc., (Kassner et al. (2014)).

Esto le da al sistema la capacidad de realizar mediciones

automáticas, controlables, confiables, de administrar

su presentación, y de registrar el momento

exacto en que se toman los datos.

30


Juan Ignacio Contino y Andrés Martín

41:(2020)

ISSN:1668-9178

4. El requisito de portabilidad del sistema

La portabilidad entre arquitecturas x86_64 y ARM

queda solucionada con la elección realizada del kernel

y la distribución de software, (The Linux Kernel

Development Community (2019)). El sistema operativo,

la suite de Pupil-Labs y el lenguaje de programación

soportan de manera nativa las arquitecturas de

procesadores requeridas. Para portar el sistema solamente

hace falta instalar la misma configuración de

software detallada y eventualmente compilar algunas

librerías necesarias en la arquitectura destino.

La portabilidad permite instalar el sistema en dispositivos

pequeños alimentados con batería para poder

hacer mediciones en entornos abiertos y sin instalación

eléctrica.

Esta configuración permite programar completamente

el eyetracker en el equipo donde se conecta y

de manera remota, esto es: mediante una red

cableada o inalámbrica.

Software adicional

Para realizar las mediciones es solamente necesario un

sistema operativo de soporte con la configuración

detallada anteriormente, el lenguaje para programación,

y el software del eyetracker. Sin embargo, la

solución se complementa con instalaciones accesorias

que permiten la operación futura de personal no

técnico del laboratorio, y la elaboración de estímulos

visuales complejos para unificar la actividad experimental

psicofísica en un solo equipo.

Se necesitan facilidades para montar memorias extraíbles,

administrar archivos de manera gráfica, etc. Se

instala un entorno gráfico muy básico para no consumir

recursos que deben ser aprovechados en la aplicación

para la que fue diseñado el sistema. Se opta por

LXDE para este fin, con una configuración especial y el

recorte de las funcionalidades que no se utilizan.

Para diseñar los estímulos visuales se instala además la

suite de librerías Psychtoolbox 3.0.14 para Octave,

(Brainard (1997)).

Presentación de los datos

El software de Pupil-Labs devuelve los siguientes recursos:

ŸVideos: Contienen la filmación asociada a la cámara

frontal y a la del ojo.

Ÿ Archivos CSV: Cada línea de estos archivos está

formada por una tupla compuesta por todos los valores

devueltos por los dos algoritmos ejecutados en el

software de Pupil-Labs. Entre estos valores están el

diámetro de la pupila en milímetros (que es el dato

que se busca), la confiabilidad del valor provisto por el

algoritmo (en puntuación 0 a 1), datos correspondientes

a las coordenadas esféricas de la mirada, y

datos asociados a la temporalidad de las mediciones

realizadas. Ver Anexo II.

Temporalidad de los datos

Como los algoritmos involucrados son de naturaleza

iterativa, (Kassner et al. (2014)), no se puede definir

una frecuencia regular de entrega de resultados. Por

esta razón el algoritmo incluye en cada registro de

cada archivo .CSV un primer campo del tipo índice que

registra el momento en segundos en el que se tomó la

medición y en el segundo campo se registra el número

de captura de imagen (asociado a ambos videos)

más cercano a esa medición. De esta manera, se puede

comprobar que no todas las capturas de imágenes

tienen la misma cantidad de mediciones asociadas, y

que algunas carecen de medición. Ver Anexo II.

El campo índice temporal de medición es relativo a un

momento seleccionado de manera arbitraria por el

desarrollador del experimento, y se puede establecer

en el programa del experimento a través de ZeroMQ.

El índice temporal establecido por omisión corresponde

al momento de arranque de Pupil Capture o Pupil

Service (lo que suceda primero).

Resultados

A partir de los datos entregados por la suite de Pupil-

Labs se puede obtener la medida del diámetro pupilar.

Estos datos también se encuentran en el archivo .CSV

devuelto por el software del eyetracker. El error del

diámetro de la pupila es función de un parámetro que

determina la confiabilidad de la medida tomada. Este

dato varía entre 0 y 1, el valor de la medición se forma

de la siguiente manera:

Diámetro de pupila = diameter_3d +/- (1 -

model_confidence) * diameter_3d

31


41:(2020)

ISSN:1668-9178 Informe Técnico

Donde diameter_3d y model_confidence son campos

en el archivo de datos devuelto por el software del

eyetracker, (Kassner et al. (2014)). Ver Anexo II.

Conclusiones

Se planteó realizar la puesta a punto de un sistema

que realiza medidas de diámetro pupilar con posibilidad

de movimiento de sujeto, resultados confiables y

portabilidad de hardware. Se diseñó un sistema de

hardware y software portable a partir de equipamiento

disponible teniendo en cuenta cada aspecto

que podía ser una limitación para la implementación

de la solución. Se logró un sistema apto para realizar

mediciones de pupilas para permitir su empleo en

investigaciones sobre el funcionamiento de la visión

humana. Este sistema cumple con las características

especificadas en los requisitos.

Anexo I: Protocolo para realizar mediciones

Para que el sistema entregue valores confiables y precisos debe utilizarse de manera correcta. Este sistema

necesita ser calibrado y posicionado para cada sujeto. Por lo tanto, es necesario articular la tarea del

experimento con la preparación del sistema. Se enumeran a continuación las tareas que deben realizarse antes

de medir sujetos. Se recomienda realizar estas tareas en orden para tener al sujeto en posición la menor

cantidad de tiempo posible antes del experimento.

ŸEncendido del PC

ŸSelección de cámara frontal (100º o 60º) y colocación en el marco con herramienta provista

ŸPreparación del marco del eyetracker con la lente del ojo derecho (60º)

ŸColocación del marco en el sujeto (figura 2)

ŸConexión del eyetracker vía USB

ŸArranque del intérprete Octave

ŸArranque del programa Pupil Capture

ŸConfiguración de Pupil Capture

ŸSeleccionar método de calibración adecuado para el experimento, (Kassner et al. (2014))

ŸHabilitar el monitoreo del diámetro de la pupila

ŸHabilitar el monitoreo de la confiabilidad del modelo del gaze

ŸVerificación del Socket para IPC

ŸHabilitar cámara del ojo derecho

ŸValidar que se ejecute el proceso de la cámara del ojo derecho

ŸPosicionado del sujeto frente a la pantalla del estímulo

ŸConfiguración de las cámaras

Ÿ Ojo Derecho

ŸPosicionar la cámara del ojo de manera que el ojo entero quepa en el campo de visión de la cámara

(figura 3)

▪ Regular el tiempo de exposición de la cámara para obtener buen contraste en la imagen

▪ Pasar el monitoreo del ojo al “Modo Algoritmo”

▪ Regular la sensibilidad de la detección de la pupila para cubrirla entera excluyendo las otras partes

oscuras del ojo

▪ Validar el modelo del ojo controlando en el modo debug

ŸFrontal

▪ Posicionarla de manera que entre en su FOV la mayor parte del FOV del ojo derecho

ŸCargar la librería ZeroMQ (se puede hacer manualmente en el intérprete Octave o desde el programa)

ŸCalibración de los modelos del gaze y el ojo del eyetracker (se puede hacer manualmente en Pupil Capture o

desde el programa)

ŸEjecución del experimento

32


Juan Ignacio Contino y Andrés Martín

41:(2020)

ISSN:1668-9178

Fig. 2 Colocación del marco de anteojo en el sujeto.

Fig. 3: 1- Correcto. 2- Incorrecto, ojo descentrado.

3- Incorrecto, ojo fuera del campo visual de la cámara.

4- Incorrecto, cámara desenfocada

Anexo II: Ejemplo - Resultado de archivo CSV

Se exponen a modo de ejemplo solo algunos campos de interés de la tupla y algunos registros del archivo

pupil_positions.csv correspondientes a mediciones de la pupila.

timestamp [s]: estampa relativa de tiempo en que se toma la medida.

index: fotograma más próximo del video grabado.

confidence: validez de la medida - de 0 (mala) a 1 (excelente).

diameter_3d [mm]: diámetro de la pupila.

model_confidence: precisión del cálculo del tamaño de la pupila.

Se obtiene así: Diámetro de pupila = diameter_3d +/- (1 - model_confidence) * diameter_3d

33


41:(2020)

ISSN:1668-9178 Informe Técnico

Referencias Bibliográficas

Brainard, D. H. (1997) “The psychophysics toolbox”, Spatial vision, Vol. 10, N. 4, pp. 433-436.

Eaton, J. W. (2018) GNU Octave version 5.1.0 manual: a high-level interactive language for numerical

computations: https://www.gnu.org/software/octave/doc/v5.1.0/

Kassner, M. Patera, W. and Bullying, A. (2014) Pupil: An Open Source Platform for Pervasive Eye Tracking

and Mobile Gaze-based Interaction. https://docs.pupil-labs.com/

Pieter Hintjens (2019) ØMQ - The Guide: http://zguide.zeromq.org/page:all

The Linux Kernel Development Community (2019) The Linux Kernel documentation.

https://www.kernel.org/doc/html/latest/

The Archlinux Community (2019) Archlinux Wiki: https://wiki.archlinux.org/

Este informe técnico se realizó en el 2° Semestre del año 2019 en el Dpto. de Luminotecnia, Luz y Visión de la

FACET (UNT) en el marco de estudios de Doctorado en Medio Ambiente Visual e Iluminación Eficiente, titulado

“Percepción del movimiento en el rango mesópico” de Juan Ignacio Contino (PUE 114 CONICET).

Juan Ignacio Contino

Ingeniero en Computación, graduado en la Facultad de Ciencias Exactas y Tecnología (FACET) de la

Universidad Nacional de Tucumán (UNT). Becario doctoral (CONICET) del Doctorado en Medio Ambiente

Visual e Iluminación Eficiente, UNT (FACET). Docente de Física del Colegio Salesiano Belgrano. Profesor del

curso “Deep Linux” (UNT/FACET). Se aplicó al campo de las telecomunicaciones en organizaciones

nacionales, de Latinoamérica y de USA (Intraway Corp.). Participó del proyecto de transferencia tecnológica

“DTEC” (ANPCyT/UNT). Su área de especialidad profesional se centra en la implementación de servicios en

redes, la configuración de los ambientes operativos, la optimización de éstos y el diseño de appliances.

Andrés Martín

Licenciado en Filosofía de la Universidad Nacional de Tucumán (UNT). Doctor en Medio Ambiente Visual e

Iluminación Eficiente, graduado en la Facultad de Ciencias Exactas y Tecnología (FACET) de la UNT.

Investigador Adjunto del CONICET en el Instituto de Investigación en Luz, Ambiente y Visión (ILAV), instituto

de doble dependencia UNT – CONICET. Su área de investigación comprende diferentes aspectos de la

percepción visual humana, especialmente la percepción del movimiento, el color y el espacio iluminado. Se

encuentra involucrado en proyectos sobre aplicaciones de los conocimientos perceptuales en diferentes

ámbitos productivos. Realizó publicaciones en importantes revistas de impacto internacional como:

Frontiers in Psychology, Psychology & Neuroscience, Human Perception and Performance.

34


41:(2020)

ISSN:1668-9178

Informe Técnico

Metodología para elaborar un plan de mantenimiento

preventivo para equipos en un laboratorio de

ensayos fisicoquímicos

José Federico Alfaro, Nancy Alves, Berta E. Bello, Susana Chauvet y Julieta Migliavacca

Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán, Tucumán, Argentina.

Resumen

El mantenimiento tiene como principal objetivo asegurar la operación funcionando, brindando la máxima

disponibilidad y confiabilidad de los equipos a un mínimo costo. A pesar de las exigencias de ciertas normas de

calidad, tipo ISO 17025 o ISO 9001, en algunos laboratorios de ensayos al no contar con un sector de

mantenimiento, ni con un plan de mantenimiento, se originan problemas de disponibilidad de sus equipos

debido a fallas inesperadas.

A partir de un diagnóstico de los equipos, la determinación de la criticidad, el relevamiento de actividades de

mantenimiento y las causas más comunes de roturas se ha elaborado una propuesta de metodología para la

elaboración de un plan de mantenimiento preventivo, así como el sistema de seguimiento del mismo.

Como resultado de disponer de un Plan de Mantenimiento Preventivo, en el laboratorio específico donde se

realizó la experiencia, se espera recuperar el 14 % de la producción perdida, calculada en base al historial de

fallas y ensayos realizados en el último año para generar, en el futuro, indicadores para la gestión del

mantenimiento.

Palabras clave: mantenimiento preventivo, laboratorio, equipos, instrumentos.

Methodology to devise a preventive maintenance plan for the equipment of a physico-chemical

testing Lab

Abstract

Maintenance has as its main objective operational operation, providing maximum availability and reliability of

equipment at a minimum cost. Despite the requirements of certain quality standards, type ISO 17025 or ISO

9001, in some test laboratories, as they do not have a maintenance sector or a maintenance plan,

problemsarise in the availability of their equipment due to failures unexpected.

Based on a diagnosis of the equipment, the detection of criticism, the relevance of maintenance activities and

the most common causes of breakage, a proposal for a methodology for the preparation of a preventive

maintenance plan has beendrawn up, as well as the system of monitoring of it.

As a result of having a Preventive Maintenance Plan, in the specific laboratory where the experience was carried

out, wait for 14% of the lost production, calculate based on the history of failures and tests carried out in the

last year to generate, indicators for maintenance management.

Keywords: preventive maintenance, laboratory, equipment, instruments.

35


41:(2020)

ISSN:1668-9178 Informe Técnico

Introducción

La competitividad actual en las empresas las obliga a

encarar un desafío constante para poder cuidar sus

posiciones en el mercado. Aumentar su productividad,

es decir producir más con menos recursos, es uno de

los requerimientos actuales para poder subsistir. Por lo

tanto las políticas de las empresas deben enfocarse en

la mejora continua no sólo como un requerimiento de

excelencia sino también de supervivencia. Es por ello

que concentrar los esfuerzos en la productividad de las

máquinas y/o equipos aumentará el rendimiento de la

empresa. El buen funcionamiento del equipamiento

significa, en algunos casos, poder alcanzar objetivos

de producción planificados.

El mantenimiento tiene como principal objetivo mantener

la operación funcionando, brindando la máxima

disponibilidad y confiabilidad de los equipos a un mínimo

costo. Más específicamente lograr, que se produzcan

la menor cantidad de paradas en las máquinas

y que estén al servicio de la producción la mayor cantidad

de tiempo posible. Sin embargo, adoptar esta

práctica aún en esta época, continúa siendo una

decisión que no todas las empresas están dispuestas a

tomar. Este comportamiento se da en muchos casos

porque no hay conocimientos de las técnicas, los

beneficios y los costos. Se podría decir, por relevamiento

de los laboratorios de la Facultad de Ciencias

Exactas y Tecnología de la Universidad Nacional de

Tucumán que esto se presenta en aquéllos que realizan

determinaciones fisicoquímicas y microbiológicas,

tanto para investigación como para la prestación de

servicios externos. Si bien la exigencias de las normas

hacen que esta situación se vaya revirtiendo en los últimos

tiempos.

En laboratorios de ensayos, el instrumento juega un

rol fundamental, ya que muchas veces el funcionamiento

incorrecto o defectuoso, o la manera de operar

pueden invalidar los resultados y hasta poner en riesgo

al operador del equipo.

Para conseguir que un instrumento dé resultados

fiables es imprescindible evitar que los componentes

principales, se ensucien o contaminen, lo cual depende

a su vez de la naturaleza de los materiales de ensayo

que se analizan, y en el caso de algunas aplicaciones

puede ser el factor más importante para la calidad

analítica. Esto es aplicable en particular a los análisis de

trazas (Villamil Gutiérrez (2005)). Por tanto hay que

reconocer que en muchos instrumentos el manteni-

36

miento es una tarea compartida entre el personal del

servicio técnico del instrumento y los operadores de

los mismos, que sufren un desgaste como consecuencia

del uso y necesitan frecuentes cuidados entre

las visitas del servicio técnico. Sin embargo, los usuarios

se ven obligados con frecuencia a reparar fallas

cuando no es posible conseguir los servicios del

personal de mantenimiento, las fallas se repiten y los

usuarios se familiarizan con el modo de resolverlos. Es

preciso, entonces, que los usuarios elaboren su propio

programa de mantenimiento para los componentes

del sistema que entran en contacto con materiales de

ensayo o que están sujetos a desgaste.

Debido a la dificultad y al desconocimiento de la importancia

de implementar un mantenimiento adecuado

para los equipos específicos que se utilizan en esta

actividad, del relevamiento de los laboratorios de determinaciones

fisicoquímicas y microbiológicas se

determinó que no cuentan con un departamento

enfocado al mantenimiento, ni con un plan de mantenimiento,

lo que origina problemas de disponibilidad

de sus equipos debido a fallas inesperadas, que

pueden generan una parada no programada de las

actividades. Lo que a su vez produce tiempos muertos

y costos elevados. La ausencia de una gestión de mantenimiento

periódico y planificado provoca que el

mantenimiento correctivo sea cada día más frecuente

y el costo de esta actividad más elevada.

La importancia del mantenimiento se deriva por tanto,

de la necesidad de contar con una organización que

permita restablecer rápidamente las condiciones de

operación para reducir al mínimo las pérdidas de producción.

Los equipos poseen piezas intercambiables, insumos y

consumibles que se deterioran con el paso del tiempo

y el uso, los que deben ser reemplazados periódicamente

para asegurar la continuidad en las operaciones

que se llevan a cabo en este laboratorio.

Tradicionalmente se pueden distinguir cuatro tipos de

mantenimiento que se diferencian entre sí por el carácter

de las tareas que incluyen.

El mantenimiento correctivo o arreglo por rotura se

trata de una forma desordenada de aplicar los medios

y los recursos. No es una práctica aconsejable, ya que la

rotura puede ocurrir en cualquier momento. La única

ventaja que tiene este tipo de gestión es que sólo se

actúa cuando el mal ya existe, es decir que genera costos

ante un mal cierto.


José Federico Alfaro, Nancy Alves, Berta E. Bello, Susana Chauvet y Julieta Migliavacca

41:(2020)

ISSN:1668-9178

El mantenimiento preventivo (Tavares (1999)) que

prevé inspecciones según tiempos prefijados por la

experiencia se basa en el uso de información disponible

para tratar de evitar la rotura. Entre las ventajas, se

encuentra la posibilidad de evitar averías costosas y/o

inoportunas; y entre las desventajas están su costo y la

realización de desarmes que pueden resultar innecesarios.

El mantenimiento predictivo constituye una forma o

estilo de realizar el mantenimiento que permite detectar

las fallas por revelación antes que sucedan, usando

equipos de diagnóstico y pruebas no destructivas.

El mantenimiento proactivo está dirigido fundamentalmente

a la detección y corrección de las causas que

generan el desgaste y que conducen a la falla de los

equipos o máquinas. Una vez que las causas que generan

el desgaste han sido localizadas, no se debe

permitir que éstas continúen presentes en los equipos,

ya que de hacerlo, su vida y desempeño, se verán reducidos.

El presente trabajo tiene como objetivo presentar la

metodología usada para diseñar un Programa de Mantenimiento,

para evitar las fallas inesperadas en los

equipos, aumentando la eficiencia de la producción de

resultados de los estudios, en un laboratorio que

realiza determinaciones fisicoquímicas y microbiológicas.

Materiales y métodos

La naturaleza de las actividades de mantenimiento

relevadas, la índole de equipos que posee el laboratorio

y las posibilidades de control por parte del personal,

permiten determinar que el mantenimiento a

efectuarse sobre los equipos de laboratorio debe ser

del tipo preventivo, anticipándose por medio del

reemplazo de piezas y controles periódicos a las fallas

inesperadas que pudieran producirse generando paradas

prolongadas de equipos y por consiguiente una

disminución en la capacidad de prestación de servicios

que posee el laboratorio.

Para diseñar el plan se siguieron las siguientes etapas:

a) Relevamiento de los equipos

Se clasificaron e identificaron los equipos, como paso

fundamental a la hora de establecer un Plan de Mante-

nimiento. Se consideró que una buena clasificación se

basa en la función y posibilidad de reemplazo de cada

uno de ellos. La información relevada consistió en la

descripción, ubicación y codificación.

b) Determinación de la criticidad de los equipos

Se determinó la criticidad de los equipos, con el

objetivo de identificar cuáles son los equipos críticos

del laboratorio, cuya no disponibilidad haría imposible

realizar la mayor parte de los análisis e incurriría en un

retraso importante de los tiempos de entrega de informes.

Para definir la criticidad se definieron 3 niveles:

baja, media y alta, teniendo en cuenta las características

de cada uno de los equipos y la flexibilidad de

poder usar un instrumento provisto por otros laboratorios,

en caso que se produzca algún desperfecto. Por

ejemplo, equipos como balanzas, muflas pueden utilizarse

de otros laboratorios.

c) Relevamiento de las actividades de mantenimiento

Para este relevamiento se tomó información proveniente

de manuales de los equipos y de la experiencia

del propio personal por el uso diario del equipo. De los

manuales existentes se determinaron las actividades y

frecuencias sugeridas por el fabricante. De igual manera

de la experiencia del personal se puede conocer el

tipo de mantenimiento que actualmente se les realiza

a los equipos.

d) Relevamiento de las fallas, frecuencia de

ocurrencia y las tareas realizadas para poner en

funcionamiento los equipos

Para ello se recurrió a la lectura y filtración de los

problemas que se produjeron específicamente en el

laboratorio y que se volcaron a través del tiempo en un

“Cuaderno de Novedades”. En este texto cada miembro

del personal que detecta una anomalía que impide

el curso normal de las actividades de trabajo, o que es

un riesgo potencial, lo reporta al Responsable del Laboratorio

y describe la problemática en el cuaderno

para que este último firme en conformidad.

Del relevamiento de las fallas más comunes detectadas

del cuaderno se ha procedido a clasificarlas en base a

la frecuencia de realización del mantenimiento correctivo

según: largo plazo (mayor de 2 años), mediano

plazo (semanal a anual) y corto plazo (diaria).

37


41:(2020)

ISSN:1668-9178 Informe Técnico

e) Propuesta del Plan de Mantenimiento

Para definir el Plan de Mantenimiento Preventivo se

procedió a discriminar las tareas por equipo a mediano

y largo plazo.

f) Propuesta del sistema de seguimiento del plan de

mantenimiento

El sistema de seguimiento permite realizar un control

de las tareas que se efectúan, su fecha de ejecución y el

responsable, lo que repercute en la organización de las

actividades que se realizan.

La falta de controles sobre las actividades planificadas

podría ser tan ineficaz como la omisión total de cualquier

tipo de mantenimiento. Para solucionar estas falencias

se propusieron distintas alternativas tales

como: la generación de registros por parte del

personal y la posibilidad de realizar el seguimiento del

mantenimiento mediante una hoja de cálculo, que

facilite la gestión y el control, y a la que tenga acceso

únicamente el Responsable del Laboratorio.

g) Cálculo del impacto de las paradas en la

producción del Laboratorio

Para determinar cuanto le cuesta al laboratorio la falta

de un Programa de Mantenimiento Preventivo, se

midieron los tiempos de paradas de los equipos y la

cantidad de ensayos realizados en dicho período para

calcular el porcentaje de ensayos no realizados en

relación a la producción de un determinado período.

Resultados y discusiones

Para desarrollar el Plan de Mantenimiento Preventivo

se han seguido los pasos propuestos en la metodología.

A continuación se detallan los resultados logrados

en cada uno de ellos.

a) Relevamiento de equipos

En esta etapa, mediante entrevistas al personal involucrado,

se logró clasificar e identificar los equipos. Se

registraron 16 equipos en el laboratorio, de los cuales

se ha detectado el estado no operativo de un equipo

(Digestor de Microondas), por falta de mantenimiento.

Pudo observarse también, que los equipos están

ubicados en ambientes corrosivos causados por los

productos químicos que se utilizan cotidianamente al

trabajar en el laboratorio, y que posiblemente ésto

acelere su deterioro.

b) Criticidad de los equipos

Los equipos relevados se clasificaron según la escala

de criticidad: alta, media y baja, detectándose que el

69 % de los equipos están catalogados con una criticidad

de alta a media, los valores obtenidos se

muestran en la tabla 1.

Tabla 1: Clasificación de Equipos por Criticidad

Criticidad

% equipos

Alta 19

Media 50

Baja 31

Fuente: propia

c) Relevamiento de las actividades de mantenimiento

Se ha logrado, a través de los manuales existentes en el

laboratorio, extraer las actividades y frecuencias sugeridas

por el fabricante del 25 % de los equipos, del resto

no se disponía de los manuales o estaban deteriorados

o perdidos.

De los resultados de la investigación con los usuarios

de los equipos se obtuvo un listado de tareas que actualmente

se ejecutan en el laboratorio y están compuestas

por una combinación de aquellas sugeridas

por el fabricante, las que figuran en los manuales y las

que surgieron como resultado de los años de experiencia

de la operación de estos equipos. Éstas últimas son

las que no están contempladas en los manuales de los

fabricantes, dado que algunas de ellas han sido transmitidas

de boca en boca por parte de los representantes

de las firmas constructoras y otras fueron

aprendidas a través de la observación por parte del

personal experto en el manejo de los equipos a lo largo

de años de operación.

38


José Federico Alfaro, Nancy Alves, Berta E. Bello, Susana Chauvet y Julieta Migliavacca

41:(2020)

ISSN:1668-9178

d) Relevamiento de las fallas, frecuencia de

ocurrencia y las tareas realizadas para poner en

funcionamiento los equipos

Se encontró que un importante número de actividades

que se realizan sobre los equipos no son registradas y

que no existe un registro que ayude a prever la próxima

vez que deberían llevarse a cabo y que cumpla la

función de reporte histórico.

Algunas tareas, como ser las que se realizan diariamente

y no presentan mayores dificultades para ser

efectuadas, se ha relevado que son llevadas a cabo por

los mismos analistas que trabajan actualmente en el

laboratorio. Otras tareas, generalmente correspondientes

a un mantenimiento del tipo preventivo y que

requieren de un conocimiento intermedio de los equipos,

son efectuadas por los responsables del laboratorio.

Aquellas actividades de mantenimiento que requieren

un conocimiento profundo de los equipos, se realizan

de manera correctiva y por especialistas pertenecientes

al servicio técnico oficial.

Del relevamiento de las fallas más comunes detectadas

del cuaderno se ha obtenido que la frecuencia

de realización del mantenimiento correctivo corresponden,

a mediano y a largo plazo, con un 42% y 44%

respectivamente y con un 14 %, pero no por ello

carente de importancia, pertenece a las actividades de

mantenimiento diarias.

Como resultado del relevamiento de las actividades de

mantenimiento se construyó una base de datos con

las tareas y la frecuencia con la que cada una debería

ser efectuada.

e) Propuesta del Plan de Mantenimiento

Para definir el Plan de Mantenimiento Preventivo se ha

procedido a discriminar las tareas por equipo a mediano

plazo de las que corresponden a largo plazo, con el

fin de organizarlas en dos cronogramas distintos que

faciliten su visualización y organización.

Para el mantenimiento diario no fue necesario planificarlo

ya que el mismo se llevaba en la práctica y con

su correspondiente sistema de registro. Este consiste

en asentar el tipo de mantenimiento y/o limpieza que

realizan, la fecha y la firma del responsable de la ejecución.

El cronograma de mantenimiento a mediano plazo se

ha conformado para los distintos equipos, con frecuencias

que pueden ser semanales, quincenales,

mensuales, trimestrales, semestrales y anuales. En

cuanto al cronograma a largo plazo, está formado por

las tareas a ser ejecutadas cada 2, 3, 4 o 6 años.

De acuerdo a la fecha estimada de la última realización

de los registros o a la repetición relevada de la tarea, se

procedió a distribuir las acciones de manera que la

carga de trabajo sea lo más equilibrada posible en un

cronograma anual, cuya unidad temporal mínima es

una semana.

Todas las operaciones de mantenimiento pueden ser

efectuadas internamente, es decir, por personal propio

del laboratorio sin necesidad de que tenga que

contactarse al servicio técnico especializado de alguno

de los equipos, por no presentar una gran complejidad

de realización, pues en los manuales pueden encontrarse

los procedimientos de manipulación segura de

insumos y el despiece de las partes.

f) Propuesta del sistema de seguimiento del Plan de

Mantenimiento

Se determinó que la generación de registros por parte

del personal no resulta adecuada porque muchas

veces el responsable de realizar las tareas olvida u

omite la acción de apuntar los ítems en el papel, debido

a la carga de trabajo o bien por mera comodidad.

De esta manera, se diseñó una hoja de cálculo para

evitar malos entendidos o ediciones múltiples del

cronograma de mantenimiento .

En el cronograma elaborado en una hoja de cálculo, la

celda correspondiente a la intersección de la tarea y la

semana en que debe efectuarse esa actividad se encuentra

“coloreada” con un sistema de semáforo

donde el color rojo indica una actividad no efectuada,

el amarillo una actividad planificada y verde una

actividad cumplida o ejecutada, para diferenciarse de

aquellas semanas en las que no hay ningún tipo de

tarea programada. De esta manera, el usuario (en este

caso, el Responsable del Laboratorio) puede distinguir

con una simple observación sobre el cronograma

cuándo corresponde efectuar una actividad de mantenimiento.

39


41:(2020)

ISSN:1668-9178 Informe Técnico

g) Cálculo del impacto de las paradas en la

producción del Laboratorio

A los efectos de evaluar el impacto de las paradas en el

Laboratorio, se ha procedido a analizar las paradas de

los equipos registradas en el cuaderno durante un

período de 12 meses y la cantidad de ensayos realizados

de modo de poder estimar un porcentaje de ensayos

que no fueron posible llevar a cabo como consecuencia

del tiempo perdido por paradas.

Se ha podido deducir que la actividad del laboratorio

es relativamente constante a lo largo del año y no

presenta algún tipo de estacionalidad, salvo una leve

disminución de los análisis en el período estival, a pesar

de trabajar mayormente con clientes involucrados

en la industria tradicional tucumana, como la azucarera

y la cítrica.

A partir de la contabilización de los análisis realizados

en el periodo analizado se pudo calcular el promedio

de análisis realizados diariamente y por hora, considerando

una jornada laboral de 10 horas de personal

trabajando en dos turnos diarios y los feriados y días

no laborales. A partir de esta información se ha calculado

que el total de análisis no realizados durante

los 12 meses analizados representa el 14% del total

efectuado durante el período contemplado.

El disponer de un mantenimiento preventivo programado

en el laboratorio le permite llevar un mejor

control y planeación sobre el propio mantenimiento a

ser aplicado a los equipos. Debido a la programación

de las actividades, la carga de trabajo de mantenimiento

se distribuye de manera uniforme en el personal

destinado para tal fin, ocupando de manera

eficiente los recursos humanos, siendo ésto una particularidad

de las actividades de mantenimiento de un

laboratorio. Para una organización de este tipo el Plan

de Mantenimiento le permite restablecer rápidamente

las condiciones de operación para reducir al mínimo

las pérdidas de producción.

La metodología aplicada le ha permitido al laboratorio

disponer de un Plan de Mantenimiento Preventivo

para los equipos del laboratorio y un mecanismo para

su seguimiento, con lo que logrará reducir la probabilidad

de paradas imprevistas, aumentar los ensayos y

sus correspondientes informes, y por consiguiente,

mejorar la productividad del laboratorio, recuperando

parte o la totalidad del 14% de la producción perdida

por falta de actividades de mantenimiento.

En términos económicos, la implementación del mantenimiento

preventivo eficiente significa la protección

y conservación de las inversiones, la garantía de productividad

y la seguridad del servicio.

Del mismo modo, se espera disminuir las quejas de los

clientes por la demora en la entrega de informes; y por

último, la gestión ordenada de las actividades de mantenimiento,

dará lugar a una mejor administración del

presupuesto para efectuar el sostenimiento adecuado

de los equipos del laboratorio año tras año.

Es necesario plantear como una actividad futura para

el laboratorio, un conjunto de indicadores que le ayuden

a gestionar el mantenimiento como el Tiempo

Medio entre Fallas (MTBF), la Tasa de Fallas, el Tiempo

Medio para la Reparación (MTTR) y por el último la

Disponibilidad, calculada como el MTBF dividido entre

la suma del MTBF y MTTR (Tavares (1999)), para lo que

es fundamental disponer de registro de las paradas y

las actividades de mantenimiento que se generarían al

cumplir el Plan de Mantenimiento.

Conclusiones

Las políticas de las empresas deben enfocarse en la

mejora continua, no sólo como un requerimiento de

excelencia sino también de supervivencia. Es por ello

que concentrar los esfuerzos en la productividad de las

máquinas y/o equipos aumentará el rendimiento de la

empresa. El buen funcionamiento del equipamiento

significa, en algunos casos, poder alcanzar objetivos

de producción planificados. Para ello, es fundamental

contar con una metodología para lograr el mantenimiento

de sus equipos, en especial en los laboratorios,

que realizan determinaciones fisicoquímicas y microbiológicas,

tanto para ensayos de investigación internos

como para la prestación de servicios externos.

La metodología propuesta le permitiría a un laboratorio

de ensayos lograr establecer un Plan de Mantenimiento

Preventivo, basado a la criticidad de los equipos,

el relevamiento de las actividades de mantenimiento

sugeridas por los fabricantes y aplicadas por

los usuarios en base a la experiencia y las causas más

comunes de roturas.

Se ha establecido un cronograma de mantenimiento a

mediano plazo, con frecuencias semanales, quincenales,

mensuales, trimestrales, semestrales y anuales;

y a largo plazo conformado por las tareas a ser ejecu-

40


José Federico Alfaro, Nancy Alves, Berta E. Bello, Susana Chauvet y Julieta Migliavacca

41:(2020)

ISSN:1668-9178

tadas cada 2, 3, 4 o 6 años. Todas las operaciones de

mantenimiento pueden ser efectuadas internamente,

es decir, por personal propio del laboratorio sin necesidad

de que tenga que contactarse al servicio técnico

especializado de alguno de los equipos, ya que ninguna

de ellas presenta una gran complejidad de realización,

pues en los manuales pueden encontrarse los

procedimientos de manipulación segura de insumos y

el despiece de las partes.

Con el Plan de Mantenimiento, basado en las particularidades

de las actividades del laboratorio, le permitiría

recuperar parcial o totalmente el 14 % de los

ensayos no realizados, como consecuencia de actuar

sólo correctivamente o frente a rotura.

Además con el cumplimiento y el sistema de registro le

permitiría en el futuro disponer de los datos para

generar los indicadores como MTBF, MTTR y disponibilidad

de los equipos para mejorar la gestión de mantenimiento.

Bibliografía

García Garrido, S. (2013) Organización y gestión integral de mantenimiento: manual práctico para la

implantación de sistemas de gestión avanzados de mantenimiento industrial. Ediciones Díaz de Santo,

España.

González Fernández, F. J. (2009) Teoría y Práctica del Mantenimiento Industrial Avanzado. FC Editorial,

España.

Referencias Bibliográficas

Tavares, L. A. (1999) Administración Moderna de Mantenimiento. Novo Polo Publicações, Brasil.

Villamil Gutiérrez, J. E. (2005) Manual de mantenimiento para equipo de laboratorio. Área de Tecnología y

Prestación de Servicios de Salud. Unidad de Medicamentos Esenciales, Vacunas y Tecnologías en Salud.

Organización Panamericana de Salud, Washington D. C.

Este trabajo se realizó en el Laboratorio de Ensayos Fisicoquímico de la Estación Experimental Agropecuaria

Obispo Colombres, Las Talitas, Tucumán, en el año 2017.

José Federico Alfaro

Ingeniero Industrial, egresado de la Facultad de Ciencias Exactas y Tecnología de la Universidad Nacional de

Tucumán. Se desempeña en el Sector Industrial.

Nancy Alves

Ingeniera Química, Profesora en Química, egresada de la Universidad Nacional de Tucumán y Magister en

Administración de Empresas de la Pontificia Universidad Católica de Valparaíso, Chile. Profesora Asociada

en la cátedra Organización Industrial. Investigadora categoría IV.

E-mail: nalves@herrera.unt.edu.ar

41


41:(2020)

ISSN:1668-9178 Informe Técnico

Berta E. Bello

Contadora Pública Nacional egresada de la Universidad Nacional de Tucumán. Especialista en Dirección de

Recursos Humanos y en Gerencia y Vinculación Tecnológica. Docente de la Facultad de Ciencias Exactas y

Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT) e Investigador.

E-mail: ebello@herrera.unt.edu.ar

Susana Chauvet

Ingeniera Química. Master en Administración de Empresas y en Ingeniería Ambiental. Docente de la

Facultad de Ciencias Exactas y Tecnología (FACET) de la Universidad Nacional de Tucumán (UNT) y Directora

de Proyectos de Investigación.

E-mail: schauvet@herrera.unt.edu.ar

Julieta Migliavacca

Ingeniera Industrial egresada Facultad de Ciencias Exactas y Tecnología (FACET) de la Universidad Nacional

de Tucumán. Especialista en Ing. Ambiental. Magister en Ing. Ambiental. Docente de la Facultad de Ciencias

Exactas y Tecnología (FACET) en la cátedra “Organización Industrial”. Docente e Investigador - Categoría IV.

E-mail: jmigliavacca@herrera.unt.edu.ar

42


41:(2020)

ISSN:1668-9178

Arte y Opinión

Un soneto escrito en Semana Santa de 2004

Horacio Brizuela

Departamento de Física, Facultad de Ciencias Exactas y Tecnología, Universidad Nacional de Tucumán, Tucumán, Argentina.

Días antes de la Semana Santa de 2004, Ángel C.,

colega y amigo, me propuso que alquiláramos conjuntamente

una casa en Amaicha del Valle, y que

compartiéramos con nuestras familias unos días de

descanso en aquellos parajes. Acepté de inmediato,

por la generosa y amable disposición de Ángel, y

porque sé que en los valles calchaquíes el otoño es

benévolo, apacible. Los paisajes, virados hacia los

pardos, amarillos y ocres, invitan a la serenidad, al

reposo reflexivo, y quizás a la melancolía. La oblicua

luz de la estación baña la tierra con una luz dorada y

mansa, que recorta las formas contra un cielo que por

diáfano resulta especialmente profundo y la vista llega

tan lejos que se siente más familiar el esquivo concepto

de infinito. En esa magia, el trino de las aves parece

más dulce y cargado de un cierto misterio, como

venido de otros tiempos, en que eran otros los ojos

que miraban esos cerros. Al caminar por cañadas y

lechos secos parece sentirse el letargo milenario de las

piedras. A la noche, la luna pastorea abrumadores

rebaños de estrellas, a las que parece faltarles cielo, de

tantas y tan brillantes ¿Cómo negarme, entonces, a

ese formidable proyecto, de combinar todas estas

maravillas con la siempre grata compañía de Ángel, y

de disfrutar con nuestras familias de esos luminosos y

serenos días?

Así fue que partimos en su auto, un tanto llevado al

extremo de su capacidad, por tener que alojar a cuatro

adultos y cinco niños. Por suerte, Ángel tenía por aquel

tiempo uno de esos prácticos vehículos de marca

francesa, mezcla de cómodo automóvil y de furgón

pequeño. Y por suerte también, el entusiasmo y la

alegre expectativa que nos llenaba, no aportaban ni

peso ni volumen al desmesurado equipaje. Viajar con

Ángel es una experiencia muy feliz y memorable.

Prudente, mesurado en su conducción, llena las horas

y los kilómetros con animados relatos de historias que

ocurrieron por los caminos y localidades que recorremos,

y que él conoce al detalle. También recuerda

vívidamente cómo de niño los recorría con su padre.

De a ratos, para matizar, escuchábamos canciones de

un disco de Lucho Hoyos. Su voz, melodiosa y potente,

ahondaba la belleza del paisaje, que al ritmo del ascenso

mudaba de selváticas quebradas a semidesnudos

cerros de tundra.

Ya, a poco de iniciado el descenso hacia nuestro destino,

tras cruzar el filo de las Cumbres Calchaquíes por

el alto de El Infiernillo, alcanzamos un punto desde

donde la vista podía tenderse por una amplia región

del valle del río Santa María, el antiguo Yokavil, como

lo llamaban los originarios. Directamente al frente,

veíamos la serranía de El Cajón, que obra de límite

Oeste del valle. Sus ásperas laderas repujadas por

vientos y lluvias descienden cambiando del ocre y el

gris de los filos hacia el verde tardío, ya manchado de

pardos, de los pastizales a sus pies. Al fondo del valle,

el río es plata fundida que destella contra el marrón

oscuro de los fértiles limos que dejó en las pasadas

furias del verano. Alamedas dispersas aparecen como

chispas de óleo amarillo agregadas al descuido. En la

banda oeste del río, un poco hacia el Sur, el pueblo de

Fuerte Quemado es una larga fila de manchas

blanquecinas entre arboledas y peñas, que siguen la

traza de la Ruta 40. Sobre la misma banda, hacia el

Norte y un poco hacia arriba de las laderas, se pueden

distinguir las estribaciones que albergan la legendaria

fortaleza de los Quilmes, donde nació y murió la última

esperanza de resistir al español. Más hacia el Norte el

valle se ensancha, y al fondo, ya azulando en la

distancia, se percibe Colalao del Valle, anidada entre

sus viñedos. A los pies de los cerros por los que

descendemos, los caseríos de Los Zazos y Amaicha,

unidos por una fluctuante línea del tenaz verdor de

algarrobos y chañares, parecen geométricos arreglos

de bloquecitos de juguete. En el otoño, desde los

recodos del sinuoso camino, a veces se perciben

misteriosos destellos que surgen fugaces entre los

pliegues de los cerros circundantes, como señales de

secretos espejos. Son bloques de hielo, que

prematuros vientos invernales dejan a su paso en las

umbrías quebradas, y que el sol, ya muy caído hacia el

Norte, no alcanza a derretir. Todo ese pequeño univer-

43


41:(2020)

ISSN:1668-9178 Arte y Opinión

so de historia y paisaje parece encerrado en una

burbuja del más prístino celeste, como creada a partir

de una joya primigenia, eterna, inalterable: el mítico

cielo calchaquí, donde trazan sus sendas invisibles los

astros y los cóndores. En ese punto del camino, en la

conjunción de tantas maravillas, la voz de Lucho,

vibrante de nostalgia, pronuncia desde el disco el

hechizo que perpetúa aquel instante: “Yokavil, tu cielo

me devora”. Ese sentimiento hecho canción acrisoló

todos los elementos en un único y persistente cuadro,

grabado a fuego en el recuerdo.

Ya llegados a Amaicha, comenzamos a descubrir las

pequeñas felicidades que enjoyaron aquellos días. La

casa, ubicada allí donde una calle céntrica al modo

amaicheño, se vuelve discreto pasaje de tierra, ofrecía

espacios y comodidades para que dos familias puedan

convivir en armonía. Los niños, para quienes el propio

viaje ya era en parte aventura, tenían ahora amplios

territorios nuevos para explorar. Los días, confortablemente

tibios, devenían en frescas noches que obligaban

a no descuidar abrigos. Ángel, avezado guía, lideró

caminatas y cortas excursiones por lugares que él

había recorrido en su juventud. Nos señalaba los hitos

urbanos: casas de familias amigas, curiosidades locales,

caminos para llegar a puntos de especial interés.

Así, mi familia pudo conocer la represa de Los Zazos,

que ofrece el eterno encanto de todo lago, y provee de

agua potable a los pobladores; la sorprendente cascada

de El Remate que atruena en su estrecha garganta

de peñas rojizas; una imagen de la virgen tallada por

un filántropo alemán en un antiguo algarrobo, que

parece estar lanzándose al vuelo desde sus raíces. En

los relatos de Ángel, la vieja plaza parecía volver a

poblarse de jóvenes mochileros, que en rueda de mate

y guitarras paladeaban la novedad en las canciones de

Sui Generis, Pedro y Pablo, Lito Nebbia, Luis Alberto

Spinetta... No faltaron cabalgatas, donde en una

oportunidad un caballo arisco nos dio un buen susto,

al lanzarse a un inesperado galope llevando a uno de

los niños. La rápida intervención del dueño de los

caballos puso final feliz al episodio.

Como siempre en Semana Santa, las horas nocturnas

transcurrían sumergidas en la hipnótica luz de una

Luna desmesurada, que imperaba sin rivales en el

cercano cielo. Bajo ese hechizo lunar, sobre el fin de

nuestro paseo, fuimos a comer a un lindo restorán, a la

Yokavil

44


Horacio Brizuela

41:(2020)

ISSN:1668-9178

sazón, del hijo de la dueña de casa. En ese lugar, para

mi beneplácito, una de las paredes estaba cubierta por

una biblioteca, cuyos libros quedaban a disposición de

los clientes. Entre la conversación y las risas, habíamos

degustado sabrosas delicias locales, no recuerdo ya si

respetando la tradición de no comer carne. Y por

supuesto habíamos bebido vino de Cafayate. Tampoco

recuerdo con exactitud en qué momento tomé el grueso

volumen de las Obras Completas de J. L. Borges. Tal

vez fue casi al final de la comida, mientras esperaba mi

postre. Por abundante que haya sido el festín, no considero

completa una comida si no es coronada con

alguna dulzura. Lo cierto es que cuando tomé el libro,

me encontraba en un estado cercano a la beatitud,

producto de los dichosos días vividos, de la abundante

cena y claro está, del generoso vino. En aquel crucial

momento, respondiendo a algún arcano conjuro, el

libro se abrió en la página 813, donde están los sonetos

Ajedrez, I y II. Ya los había leído muchas veces, al

punto de tener en la memoria algunos versos. Pero

algo desconocido obraba aquella noche y al leerlos, los

sentí más contundentes que nunca. Las precisas palabras

me llegaban como con una sonoridad nueva, con

un ritmo nunca antes percibido. Pero esa musicalidad

no era liviana ni grácil, sino que vibraba con asordinado

estruendo, con algo de terrible, algo de final. Las

nítidas imágenes, las certeras metáforas cobraron una

profundidad de sentencia, de dictamen irrevocable.

Transportado por la magia del momento, la poesía devino

en el impiadoso dardo que me inyectó a la propia

sangre el rigor de aquellas cláusulas, y pude sentir con

total convicción, con terminal fatalidad, que nadie

puede proclamarse dueño de su destino. Todos nos

hemos aproximado alguna vez a un pensamiento similar.

Todos, ante un hecho trágico, nos hemos asomado

a esta verdad. Pero aquella noche de revelación, no me

aproximé a ella ni la pensé: la viví.

Creo no haber hablado mucho después de ese arrebatador

instante, o tal vez hablé sin decir nada. Sumido

en esa nueva conciencia, regresé con los demás a

la casa. No dormí bien. De a ratos me asaltaban versos

que repetían, con otras palabras, aquella misma sentencia.

Luego fueron estrofas enteras, reflejos en un

espejo roto, que enunciaban bajo otras formas los

férreos sonetos de Borges y su implacable verdad. Para

liberarme, a la madrugada escribí con apresurada caligrafía,

sobre el primer papel que encontré, algo de lo

que resonaba en mi mente insomne. Así nació este

soneto, que no es imitación ni copia, sino distorsionado

reflejo, atenuado eco, de sus imperiosos originales.

Y no lo escribí por veleidad ni por afán de impos-

tura, sino repito, como vía de liberación. Se ve en él la

impericia, la tosquedad del picapedrero que aspira a

escultor, pero una vez plasmado en el papel, cobró su

propia identidad y ganó el derecho a sobrevivir. Al menos

para mí. Y por supuesto para Ángel, que me

consiente y tolera, hasta celebra, estas torpezas literarias,

con verdadera vocación de amigo.

Ajedrez III

Se ha dividido el mundo en dos:

Ya se enfrentan las huestes ordenadas.

Ya la lenta cadencia de jugadas

Ritualiza la batalla cruel, feroz.

Por la fútil vida de un rey innoble

Se inmolan sin gloria las figuras

Que despliegan amenazas y bravuras

Sobre el llano tablero de odio doble

Con ciencia o con caprichos repentinos

Los jugadores ejercen poderío

Y deparan a sus piezas fin sombrío.

No es más blando el rigor de sus destinos

Y se pierden en el tiempo, ese otro río,

Convencidos de aquel mito, el albedrío.

Horacio Brizuela

45


Visite nuestra página:



ISSN: 1668-9178

REVISTA DE CIENCIAS EXACTAS E INGENIERÍA

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!