T3CICOM2014 - Análisis del actual desarrollo de aplicaciones móviles sobre astronomía para dispositivos basados en Android p. 96-103 - PDFCOFFEE.COM (2024)

Comité Editorial Consejo Editorial Dr. Javier Saldaña Almazán (Presidente) Dra. Berenice Illades Aguiar (Secretaria) Dr. Justiniano González González (Vocal) M. C. José Luis Aparicio López (Vocal) Dr. Crisólogo Dolores Flores (Vocal) Dr. Oscar Talavera Mendoza Editor responsable Dr. Oscar Talavera Mendoza

Editores por áreas del conocimiento

Fotografía de la portada: Cartel del IV Congreso Internacional de Computación México-Colombia, CICOM 2014. Autor: Luis Octavio Gutiérrez Adame. UAGro Virtual. Universidad Autónoma de Guerrero.

Dr. Elías Hernández Castro Universidad Autónoma de Guerrero

Ciencias Agropecuarias

Dr. José Legorreta Soberanis Universidad Autónoma de Guerrero

Ciencias Biomédicas y de la Salud

Dr. José Francisco Muñoz Valle Universidad de Guadalajara

Ciencias Biomédicas y de la Salud

Dr. José María Sigarreta Almira Universidad Autónoma de Guerrero

Ciencias Exactas y Matemáticas

Dr. Rodrigo Carramiñana Southern Illinois University

Ciencias Exactas y Matemáticas

Dra. Laura Sampedro Rosas Universidad Autónoma de Guerrero

Ciencias Ambientales y Desarrollo Regional

Dr. Ricardo Sánchez García Universidad Autónoma de Guerrero

Ciencias Sociales, Filosofía y Sociología

Dra. Luisa Concepción Ballester Southern Illinois University

Ciencias Sociales, Filosofía y Sociología

Responsable de la Edición Dr. C. Juan Baltazar Cruz Ramírez Coordinación Editorial Lic. Isabel Rivero Cors MFA Moisés Reyes Román Corrección de estilo M. C. Magdalena Martínez Durán

Volumen 5, Número Especial 3, 2 de Octubre 2014 es una publicación trimestral editada por la Universidad Autónoma de Guerrero, a través de la Dirección General de Posgrado e Investigación. Domicilio: Javier Méndez Aponte No. 1, Col. Servidor Agrario, C.P. 39070. Tel: (01 747) 471 93 10 ext. 3091. Chilpancingo, Guerrero, México. Site de la revista: http://posgradoeinvestigacion.uagro.mx E-mail: [emailprotected] Reservas de Derechos al Uso Exclusivo No. 04-2009-040817000000-102. ISSN 2007-2066. Este número se publicó el 22 de Septiembre del 2014. Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación. Se autoriza la reproducción total o parcial de los contenidos e imágenes de la publicación para fines didácticos.

I

Comité Científico CICOM 2014 Nombre

Universidad

País

Pontificia Universidad Javeriana

Colombia

Marco Regalía Doctorado Universidad de Milán, Italia. Biología Molecular, Genética y Bioinformática. Docente de la Universidad Distrital Francisco José de Caldas

Universidad Distrital Francisco José de Caldas

Colombia Italia

Ricardo Castaño Tamara Maestría/Magister Universidad Pedagógica Nacional. Facultad De Ciencias Sociales. Docente de la Universidad Distrital Francisco José de Caldas

Universidad Distrital Francisco José de Caldas

Colombia

Tomas Vásquez Arrieta Maestría/Magister Universidad Pedagógica Nacional – U.P.N. Sociología Filosofía. Docente de la Universidad Distrital Francisco José de Caldas

Universidad Distrital Francisco José de Caldas

Colombia

Rosendo López Maestría/Magister Universidad Pedagógica Nacional. Docencia de la Química. Maestría/Magister Universidad Santo Tomas. Filosofía Latinoamericana. Docente de la Universidad Distrital Francisco José de Caldas

Universidad Distrital Francisco José de Caldas

Colombia

Gloria Castellazzi Doctorado Universidad de Pavía, Italia. Bioingeniería y Bioinformática

Universidad de Pavía

Italia

Salvatore Cappadona Doctorado Universidad de Milán, Italia. Bioingeniería. Post-doc Universidad de Utrecht, Holanda. Proteómica Computacional

Universidad de Utrecht

Holanda

Edgar Altamirano Carmona Doctorado Centro de Investigación y Estudios Avanzados del instituto Politécnico Nacional México. Docente Universidad Autónoma de Guerrero, México.

Universidad Autónoma de Guerrero

México

Universidad Nacional Autónoma de México

México

Universidad Autónoma de Guerrero

México

José Alejandro López Pérez Doctorado Universidad Federal de Río de Janeiro, Brasil. Artes Visuales. Docente de la Pontificia Universidad Javeriana

José Antonio Jerónimo Montes Doctorado Universidad Nacional Autónoma de México Pedagogía, E-learning. Docente Universidad Nacional Autónoma de México. José Efrén Marmolejo Valle Doctorado Candidato. Educación e Interculturalidad. Colegio de Guerrero Jefe del área de programas y profesionalización de la UAGro Virtual

II

Instituto Tecnológico de Chilpancingo

México

Juan Baltazar Cruz Ramírez Doctorado Ph. D. Curriculum and Instruction .Southern Illinois University, USA. Jefe del área de Gestión de Proyectos a Distancia de la UAGro Virtual.

Universidad Autónoma de Guerrero

México

René Edmundo Cuevas Valencia Doctorado Universidad Autónoma de Guerrero. Computación. Docente Universidad Autónoma de Guerrero. México.

Universidad Autónoma de Guerrero

México

Felicidad Bonilla Gómez Doctorado Ciencias de la Información. Universidad de la Laguna. Tenerife, Islas Canarias, España. Coordinadora General de la UAGro Virtual.

Universidad Autónoma de Guerrero

México

Valentín Álvarez Hilario. Maestría/Magister Maestría en Computación. Universidad Autónoma de Guerrero. Docente Universidad Autónoma de Guerrero

Universidad Autónoma de Guerrero

México

José Mario Martínez Castro Maestría/Magister Universidad Autónoma de Guerrero, México. Computación. Docente Instituto Tecnológico de Chilpancingo.

III

COORDINACIÓN GENERAL DE LA UNIVERSIDAD VIRTUAL Dra. FELICIDAD DEL SOCORRO BONILLA GÓMEZ Coordinadora General M. C. ANGEL LÓPEZ MARTÍNEZ Asesor ÁREA DE PROGRAMAS Y PROFESIONALIZACIÓN M. C. JOSÉ EFRÉN MARMOLEJO VALLE Jefe de Área Lic. NOEL BERNABED CRUZ HERNÁNDEZ Lic. MARÍA GUADALUPE CORRAL CHINO Lic. VICTOR CAMPOS SALGADO Lic. ARTURO LÓPEZ MARTÍNEZ ÁREA DE PRODUCCIÓN DE MATERIALES EDUCATIVOS M. A. JUAN SILVESTRE SALINAS VALADEZ Jefe de Área Lic. MIGUEL ANGEL MORÁN DELGADILLO Lic. ALBERTO HERNÁNDEZ MALDONADO Lic. JORGE ROBERTO ROMERO BONILLA EDGAR RINCÓN HERNÁNDEZ MALDONADO ÁREA DE TECNOLOGÍAS DE LA INFORMACIÓN M. A. PAVEL ERNESTO ALARCÓN AVILA Jefe de Área M. A. LUIS OCTAVIO GUTIÉRREZ ADAME Ing. DIEGO ALARCÓN PAREDES Ing. JOSÉ ANTONIO GARDUÑO CRUZ Ing. JOSÉ ADÁN CATALÁN OCEGUEDA ÁREA DE GESTIÓN DE PROYECTOS A DISTANCIA Dr. JUAN BALTAZAR CRUZ RAMÍREZ Jefe de Área Asistentes Lic. OLGA ESTHER SILVA BONILLA Lic. JUAN ABEL QUIJADA PALAU Lic. PEDRO OCAMPO AYVAR Ing. ZILIANY DE MONSERRAT SALGADO SALMERÓN

IV

EDITORIAL En una época en la que los avances tecnológicos progresan más rápido que nuestra capacidad para dominarlos y aprender a aplicarlos en un contexto de vida cotidiana, se hace necesario recapacitar sobre el hecho de que las habilidades tecnológicas como elementos sociocognitivos en los tiempos presentes, constituyen dimensiones relevantes no solo para la interacción cotidiana, sino que influyen de manera decisiva en los procesos de enseñanza-aprendizaje, mismos que generan una sinergia compleja que combina variables que determinan las transformaciones que se manifiestan en el entorno educativo actual Esto hace necesario que los sistemas de educación asuman dentro de sus modelos curriculares y pedagógicos, la integración de las tecnologías de la comunicación e información como un medio de encontrar respuestas a las condiciones que estas nuevas realidades requieren. Actualmente, los enfoques metodológicos relacionados con enseñanza virtual como elemento emergente en el contexto actual, permiten optimizar el acceso que tienen los estudiantes a estas herramientas, que en su contexto presente y futuro, ya están delineadas para impulsar el desarrollo de sus capacidades y destrezas creativas, basadas en la selección apropiada de información y en la habilidad para formular preguntas y encontrar respuestas a través de los canales más apropiados. Avanzar en un desarrollo curricular innovador, considerado ex profeso para su desarrollo mediante las tecnologías de la comunicación y la información, necesariamente implica una nueva lectura de los marcos teóricos y materiales curriculares vigentes desde una perspectiva reflexiva de la práctica docente. Frente a los numerosos desafíos que nos depara el porvenir en el siglo XXI, la educación a distancia, analizada desde el presente y con un énfasis como instrumento indispensable para enfrentar los cambiantes ámbitos educativos, económicos y tecnológicos, implica una adaptación a los cambios constantes que la sociedad actual requiere, y sobre todo, significa ajustarse al ritmo de los avances tecnológicos y científicos, desarrollando capacidades que permitan interrelacionar saberes, desplegar conocimientos, valores y habilidades sociales. Ante este panorama, los 83 trabajos presentados en el IV Congreso Internacional de Computación (CICOM) 2014, en las mesas de Educación con Nuevas Tecnologías, Agentes Inteligentes e Inteligencia Artificial, Ingeniería de software y Redes inteligentes, así como Minería de Datos y Aplicaciones Avanzadas, conforman un esfuerzo loable en la presentación de soluciones a la problemática anteriormente planteada, y presentan propuestas innovadoras que pueden incidir con éxito en el cambiante mundo de hoy.

Dra. FELICIDAD DEL SOCORRO BONILLA GÓMEZ Coordinadora General de la Universidad Virtual Universidad Autónoma de Guerrero. V

Contenido Pag.

Editorial

V

La evaluación a través de herramientas WEB 2.0 como estrategia de aprendizaje

1

Karolina González, Freddy León, Leonardo Contreras 7

Generador de Sistemas Experto Boris Antonio Aranda Benítez, Laura Villavicencio Gómez, Rogelio Jaramillo Lima Minería de datos en estudios cienciométricos utilizando Bibexcel, Pajek y Vosviewer

14

Israel Herrera-Miranda, Miguel Apolonio Herrera Miranda, Rafael García Mencía Desarrollo de aplicaciones móviles como apoyo al proceso educativo

20

Carlos Alberto Vanegas, Rocío Rodríguez Guerrero, Sonia Pinzón Los Centros de Cómputo en la Cd. De Chilpancingo de los Bravo, Guerrero.

24

Valentin Alvarez Hilario, Carlos Bustamante Araujo, Severino Feliciano Morales Espacios Virtuales para la formación de semilleros de investigación en la UNAD

31

Germán Alfredo López Montezuma, Francisco Nicolás Javier Solarte Solarte, Manuel Ernesto Bolaños Gonzales Impacto económico, educativo y social de las alteraciones de conducta en los niños y su detección a través de técnicas de ingeniería.

35

David Jaime Gonzalez Maxinez, Eloisa M. Vivas Villasana, José M. Martinez Castro 41

Sistema de Monitoreo en Tiempo Real Chrisoan A. Ramírez Hernández, Gerardo Cabrera Hernández, Antonio González Rivera HEIMDAL: Red de Monitoreo Colaborativo Basado en Sistemas Multi-Agente para Aplicaciones de Misión Critica

46

Katterine Rodriguez Garzon, Yeismer C. Espejo Bohorquez, Miguel A. Leguizamon Paez 51

Búsqueda semántica de objetos de aprendizaje Noé Arcos Muñoz, Luis Antonio Castro R., Rocío Rodríguez Guerrero Herramienta tecnológica para estimular la concentración de los niños de 4 a 6 años de edad en la localidad de Ciudad Bolívar de Bogotá. Andres Camilo Morales Suarez, Rocío Rodríguez Guerrero

VI

56

Herramientas de software libre para mejorar la aplicación de pruebas unitarias en la integración continua

60

Adriana Ivett De La Roca Chiapas, Leticia Santa O., Sandra Martinez, Laura Villavicencio G., Boris Aranda B., Miguel A. Delgado A. Metodología para el reconocimiento de enfermedades y plagas en árboles de aguacate basado en técnicas de visión artificial.

66

Eric Rodríguez Peralta, Manuel Hernandez Rodriguez, Agustin Damian Nava Diseño de una arquitectura web distribuida de alta disponibilidad para sistemas de educación a distancia por medio de Oracle Weblogic Server

71

Andrés Felipe Díaz Ramos, Juan José Orjuela Castillo Using a qualitative approach for selecting software architecture patterns

76

Luis Felipe Wanumen Silva, Rafael Andrés González Rivera Detección de niños con trastornos de conducta mediante lógica difusa

84

Eloisa Mercedes Vivas Villasana, David G. Maxínez, José M. Martínez Castro Diseño de una arquitectura web distribuida de alta disponibilidad para sistemas de educación a distancia por medio de Oracle WebLogic Server

92

Andrés Felipe Díaz Ramos, Juan José Orjuela Castillo Análisis del actual desarrollo de aplicaciones móviles sobre astronomía para dispositivos basados en Android

96

Analuz Silva Silverio, Mario A. De Leo Winkler, René E. Cuevas Valencia Diseño del sistema de circuito cerrado de televisión para el monitoreo de buses articulados transmilenio usando una red WiMAX

104

Yuri Vanessa Nieto Acevedo, Héctor Iván Blanco GIS analysis model to promote tourism through the use of a WEB application

110

Yuri Vanessa Nieto Acevedo Software Libre: Alternativa de formación para el emprendimiento

117

Gerardo Alberto Castang Montiel, Sonia Alexandra Pinzón Núñez, Carlos Alberto Vanegas 123

Desarrollo backend del sistema SIGAF Edgar Iván Avila Garrido, Esperanza Manrique Rojas Emulación de un pizarrón interactivo haciendo uso de un Kinect

128

Maricruz Sánchez Vázquez, Eric Rodríguez Peralta Albebrator: un recurso para resolver una ecuación de segundo grado. Angelino Feliciano Morales, René E. Cuevas Valencia, Arnulfo Catalán Villegas

VII

133

139

Los MOOCs en los tiempos de LTE Héctor Julio Fúquene Ardila, Wilman Enrique Navarro Mejía

144

Migración de Bases de Datos SQL a NoSQL Angeles Cruz Manjarrez Antaño, José Mario Martínez Castro, René E. Cuevas Valencia Implementación para control del robot Ludovico a través de dispositivos móviles Android y microcontrolador Arduino

149

Giovanni Francis Sumano Arias, Omar Lucio Cabrera Jiménez, Luis Fernando Castro Careaga 155

Estudio de Expectativas y Acceso a la Modalidad Virtual Ma. De Lourdes Hernández Aguilar, Maribel Pérez Pérez, Erika González Farfán Modelo para la determinación del nivel de riesgo de Deserción Estudiantil empleando Redes Neuronales Artificiales

160

Martha Lucia Tello Castañeda, Roberto Emilio Salas Ruiz, Hermes Javier Eslava Blanco Redes de aprendizaje en la educación a distancia basadas en la descentralización de la información

168

Javier Albadán Romero, Verónica Suárez Molina Entornos virtuales de enseñanza-aprendizaje en el nivel medio superior de la UAGro

173

Gabriel Sandoval Nava, Rene Edmundo Cuevas Valencia Implementación de una aplicación móvil para realizar compras inteligentes

177

Nelly Abad Najera Flores, Brigido Cerezo Roman, Rene Edmundo Cuevas Valencia Realidad Aumentada aplicada a la Educación a nivel secundaria en la asignatura de Biología

182

Miguel Angel Muñoz Salas, Eric Rodríguez Peralta, Rene Edmundo Cuevas Valencia Sistema de alertas de signos vitales y de ubicación a través de dispositivos móviles

186

Judy Marcela Moreno Ospina, Manuel Fernando Sánchez G., Nevis Balanta Castilla, Luis Felipe Wanumen S. Software para evaluar conocimientos / resolución de problemas en modelos por ciclos propedéuticos

194

Lizeth Martínez López, Jenny P. Ortiz Diagnóstico temprano de enfermedades visuales a partir de aprendizaje computacional

199

Camilo Andrés León Cuervo, María Alejandra Bonilla Díaz Uso de WebSockets en la comunicación cliente-servidor de aplicaciones web, para generar conexiones de baja latencia Maily Alejandra Quintero Espinosa

VIII

205

Uso de Node.js en el desarrollo de aplicaciones web altamente escalables

214

Michael Valencia Ramirez 220

Indicadores de potencia de WEB semántica Francisco Ham Salgado Ham Salgado, Arnulfo Catalán Villegas, Rene E. Cuevas Valencia Modelling the dynamics of a 2 DOF robotic arm using Matlab.

226

Luis Daniel Samper Escalante, Yolanda Isabel Escalante Estrada Solución del TSP y 8 Reinas Usando Algoritmos Genéticos

230

Luis Daniel Samper Escalante, Carlos Antonio Osorio Maceda, Yolanda Isabel Escalante Estrada 234

Aulas virtuales y rendimiento escolar Alma Cristina Guerrero Arreola , Verónica Del Carmen Quijada Monroy Estimación de enfermedades del oído a partir de técnicas de minería de datos

240

Jorge Enrique Rodríguez Rodríguez Tratamiento de los datos para el pronóstico de tráfico en redes Wi-Fi, mediante series de tiempo

244

Yaqueline Garzon Rodriguez, Luis Felipe Wanumen Silva Implementación de Códigos QR en Identificaciones de Personal en un Centro de Trabajo

255

Cristina Eleoreth García Nava, Rene Edmundo Cuevas Valencia 259

JDA "juegos de aritmética" Cinthia Del Carmen Balam Almeida, José Emmanuel López Rojas Detección de Patrones de Muertes por Causa Externa con Árboles de Decisión

264

Ricardo Timarán Pereira, Arsenio Hidalgo, Gonzalo Hernández Sistema educativo de enseñanza básica, con el uso de Tecnologías Sensoriales

271

Cinthia Del Carmen Balam Almeida, Sergio Alejandro Can Mojón, Jimmy Peña Koo, Abraham May Collí Programación mediante scripts de un libro virtual interactivo usando Etoys como herramienta de autor

274

Juan Baltazar Cruz Ramirez Aplicabilidad de un prototipo de virtualización académica en procesos de tutorías y de ingreso Felipe Luna García, María de Lourdes Martínez Zamudio, José Abel Díaz Aguado

IX

279

Desarrollo de un sistema de control reactivo para un robot enfocado en tareas de búsqueda de fuentes de calor

286

Edwin Andres Beltrán González, Kristel Solange Novoa Roldán, Willson Infante Moreno 292

Lingüística Computacional y sus Aplicaciones Rafael García Mencia El uso de las TIC’s en los procesos de aprendizaje para el manejo de software especializado en la carrera de Diseño Gráfico

298

Ana Rivera Abarca, Héctor Oswaldo Aguilar Cajas Monitoreo de la temperatura y la humedad relativa con el sensor SHT71 y el robot DANI 2.0

302

Leidy Yolanda López Osorio, Miguel Ricardo Perez Pereira, Giovanni Rodrigo Bermúdez Bohórquez Percepción de cambios en objetos virtuales de aprendizaje implementando metodologías multi-agente INGENIAS y GAIA

307

Iván Fernando Leal Ramírez, Germán Amézquita Becerra Sistema de clasificación de flores de Iris usando redes Neuronales Artificiales

315

Miguel Ángel Ruiz Jaimes, Yadira Toledo Navarro, Víctor Ciro Flores Reyes Arquitectura de una Oficina de Transferencia de Tecnología y Conocimiento Virtual Basada en Ontologías

319

Hugo Omar Alejandres Sánchez, Nimrod González Franco, Juan Gabriel González Serna Diseño de un software para dar a conocer en internet el tratamiento de los residuos sólidos producidos en una comunidad universitaria del estado de Guerrero

324

Maria Del Rayo Graciela Guevara Villa, Jorge Jaime Juárez Lucero, Brandon Josuhe Castorela Astudillo, Hugo Leonardo Aguilar Uso de un objeto de aprendizaje en la clase de Cálculo Diferencial: Una experiencia educativa

328

Sara Leticia Marin Maldonado, Laura Plazola Zamora, Ana Torres Mata SOFTCreaM. Software for creating magazines for Environmental and Biotechnology Education

330

Jorge Jaime Juarez Lucero, María del Rayo Graciela Guevara Villa, Abdias David Soriano Ocampo, Arturo Lagunas Inosensio Tendencias en el diseño de procesos de búsqueda de documentos en la Internet, respecto de la participación activa del usuario en los procesos

336

Dora Luz Juárez Victoria La autoregulación del aprendizaje en el proceso de solución de problemas de razonamiento lógico en estructuras de datos dinámicas Mariluz Romero García, Wilman Enrique Navarro Mejia

X

342

Desarrollo de un software para la realización y análisis de pruebas proyectivas de tipo figura humana.

346

Daniel Edahí Urueta Hinojosa, David Ulises Ríos Mendoza , Miguel Angel Ruiz Jaimes Resultados de la encuesta: Aspectos Generales, aplicada a Docentes de la UAI de la UAGro.

350

Rene Edmundo Cuevas Valencia, Angelino Feliciano Morales, Arnulfo Catalán Villegas 355

Brecha Digital y Cognitiva en el Estado de Guerrero Noel Bernabed Cruz Hernández, José Efrén Marmolejo Valle, Edgar Altamirano Carmona Algebrator un recurso para resolver una ecuación de segundo grado

363

Angelino Feliciano Morales, Rene Edmundo Cuevas Valencia, Arnulfo Catalán Villegas Análisis de Algoritmos Paralelos para la Tarea de Minería de Datos Asociación

369

Manuel Ernesto Bolaños González, Luis Joyanes Aguilar, Ricardo Timaran Pereira Aspectos de seguridad en el desarrollo de aplicaciones web usando PHP y MySQL

378

Arnulfo Catalán Villegas, Alma Karen Bailón Preciado, Angelino Feliciano Morales 384

Realidad aumentada, una estrategia aplicable Juan Carlos Rodríguez Campos, José Raúl García L. Israel Durán B.

388

Comunidades Masivas de Aprendizaje y Práctica Kenia Esperanza Salado Agatón, Edgar Altamirano Carmona Diseño de un entorno virtual de aprendizaje para e l apoyo de las actividades de orientación vocacional del grado once, en el Colegio CEDID Ciudad Bolívar

393

Alfonso Toledo Ballén 406

Métodos de la IA, aplicados al Análisis Espacial Álvaro López Arellano

413

Comunidades Masivas de Aprendizaje y Práctica Kenia Esperanza Salado Agatón, Edgar Altamirano Carmona

417

Una Propuesta xMooc para Lógica Informática. Nelson Becerra Correa, Edgar Altamirano Carmona Sistema multiagente para la simulación de atención a conflagraciones en la localidad de Kennedy Luis Felipe Wanumen Silva., Diana Milena Aponte Bermúdez, Jenny Alejandra Galeano Sandoval

XI

426

Handover en el estándar 802.16 (WiMAX), un enfoque de análisisHandover en el estándar 802.16 (WiMAX), un enfoque de análisis

432

Eugenio Avilúz Ramírez, José Efrén Marmolejo Valle Ambientes Personales de Aprendizaje: aprendizaje en un mundo conectado

441

Victoria Gutiérrez Rebolledo, Edgar Fernández Mendoza, , Edgar Altamirano Carmona Desarrollo de competencias matemáticas, en el contexto de la Geometría, a través del uso de Geogebra

445

Juan Carlos Piceno Rivera, José Efrén Marmolejo Valle, Gema Rubí Moreno Alejandri La adicción a las drogas auditivas, un riesgo para los jóvenes mexicanos José Luis Hernández Hernández, Valentín Álvarez Hilario, Félix Molina Ángel

XII

450

Tlamati, Número Especial 3 CICOM 2014

La evaluación a través de herramientas web 2.0 como estrategia de aprendizaje Karolina González Universidad Militar Nueva Granada Dg 77B #116B-42 int 5 torre 1 apt 1203 Bogotá D.C. Colombia (571)3014112686

[emailprotected] du.co

Freddy León

Leonardo Contreras

Universidad Militar Nueva Granada Universidad Distrital Francisco José de Carrera 13 n 101 -80 Bogotá D.C Caldas Colombia Carrera 13 n 101 -80 Bogotá D.C (571) 3107968487 Colombia (571) 3012409460 [emailprotected]

[emailprotected]

RESUMEN

Categories and Subject Descriptors

La evaluación puede ser una estrategia de aprendizaje, pero hay pocos estudios que exploran los contextos referentes al aprendizaje colaborativo utilizando herramientas de la Web 2.0. Con el objetivo de contribuir al anterior enunciado, se presenta un estudio transversal de carácter innovador, desarrollado en un programa de ingeniería en educación superior. Se desarrolla el estudio en tres cursos del mismo seminario para ser comparados, se analiza en cada curso el diseño, reflexiones y percepciones de los estudiantes (recogidos a través de cuestionarios on-line) frente a diferentes herramientas 2.0 que se adoptaron para el proceso de evaluación colaborativa. Los resultados sugieren que la evaluación promueve el aprendizaje activo e independiente además del pensamiento crítico. Finalmente con el estudio se asume que los puntos de referencia, la negociación clara, la familiaridad con el proceso y el tipo adecuado de herramienta Web 2.0, contribuye a la reducción de actitudes negativas frente a la evaluación del aprendizaje.

Design, Theory, Human Factors

General Terms Design, Theory, Human Factors

Palabras Clave Evaluación, aprendizaje, herramientas web 2.0.

1. INTRODUCCION La evaluación se centra en el uso de estrategias que pueden aumentar la comprensión de los estudiantes, de este modo se busca que los estudiantes planeen su propio aprendizaje, definan sus debilidades y fortalezas, y mejoren sus habilidades [1]. Dado lo anterior, el principal beneficiario de la evaluación debe ser el estudiante, para ello los estudiantes y los docentes deben participar en un fructífero proceso de diálogo y retroalimentación [2]. La evaluación debe ser una parte integral del proceso de aprendizaje, la cual tiene lugar durante todo el proceso y se centrará en los aspectos cognitivos, sociales y afectivos que por lo general, incluye un enfoque multi- método y crea un perfil completo y no simplemente una calificación final.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

En el contexto de la evaluación del aprendizaje, la autoevaluación y la evaluación por pares juegan un papel importante [3][1] ambos tipos de evaluación implican la reflexión sobre el proceso y el producto del aprendizaje, las obras y las actuaciones de sus compañeros [4], la evaluación entre pares alienta a los estudiantes a participar en la discusión y genera colaboración . Topping [5] afirma que las tareas de evaluación de pares pueden ser utilizadas de forma efectiva en diferentes ámbitos y diversos productos incluyendo un ensayo escrito, un portafolio, una presentación oral, una prueba de rendimiento entre otras habilidades.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

Varios autores [6][5] sostienen que los estudiantes pueden beneficiarse de la evaluación por pares, ya que al participar los 1

Tlamati, Número Especial 3 CICOM 2014 alumnos en la formación de sus propios procesos de aprendizaje aumentan su autonomía. Sin embargo en la literatura reciente diferentes investigaciones demuestran que los estudiantes presentan resistencia a la evaluación por pares y muestran actitudes negativas frente al proceso de evaluación a través de internet [7][8][9], los mismos estudios indican que a veces los estudiantes consideran que es injusto y con frecuencia creen que los compañeros no están calificados para revisar y evaluar su trabajo.

7. 8.

Dada la falta de estudios sobre la evaluación on-line en la educación b-learning, este estudio es exploratorio, de carácter cualitativo, descriptivo e interpretativo. Por otra parte, el presente estudio presenta el uso de un enfoque de investigación basado en el diseño[12], que tuvo como objetivo analizar la forma de diseñar y desarrollar la evaluación para el aprendizaje en el sector de la Educación Superior. Teniendo en cuenta los conocimientos técnicos y los resultados de los cursos, fueron re-diseñadas las estrategias de evaluación, de modo que los estudiantes se beneficiaron a medida que cada curso fue mejorando la estrategia de evaluación.

Aunque la evaluación y la evaluación por pares se ha utilizado ampliamente para apoyar el aprendizaje de los estudiantes, se sabe poco sobre su eficacia en contextos en línea [10], en particular en contextos de aprendizaje colaborativo utilizando tecnologías de la web 2.0. Además [11] mencionan que hay un vacío en la literatura en lo que se refiere a la evaluación on-line cuando se pide a los estudiantes a crear y publicar contenido, o participar en actividades de creación de redes de la web social.

La Investigación basada en diseño se está utilizando en el campo de la educación, ya que sus elementos clave incluyen: tratamiento de problemas complejos en colaboración con los expertos (docentes), la integración de los principios de diseño de las nuevas tecnologías para desarrollar soluciones prácticas al problema y realizar evaluaciones eficaces para mejorar la solución propuesta e identificar nuevo principio de diseño [12].

El presente trabajo tiene como objetivo llenar las lagunas antes mencionadas, se describe un estudio que muestra cómo la evaluación se rediseña para crear tareas de aprendizaje teniendo en cuenta a los docentes y los alumnos. Este es un estudio transversal innovador que se presenta con el fin de analizar un proceso basado en el diseño de ciclos, este estudio abarca tres cursos del seminario de trabajo de grado de ingeniería multimedia.

La metodologías basadas diseñado comprende cuatro fases: 1 Analizar el problema, 2 – Desarrollo de posibles soluciones; 3 Implementar y evaluar; y 4 - Reflexionar y generar el informe. Estas fases fueron adaptadas en cada curso para el desarrollo de este estudio.

Después de esta breve introducción, se presentan las opciones metodológicas utilizadas, se describe el contexto del estudio y el perfil de los estudiantes asociados y finalmente se exponen los resultados así como las consideraciones y recomendaciones para obtener el máximo provecho de la evaluación en los contextos en línea.

Los datos se recolectaron en los cursos impartidos por los autores y los datos de los estudiantes se recogieron a través de un cuestionario en línea. El cuestionario fue respondido de forma anónima en la sesión final (semana 4) de cada curso, la mayoría de los estudiantes matriculados en el curso contestaron la encuesta:

2. CONTEXTO Y METODOLOGIA El estudio se desarrolla en tres cursos de trabajo de grado de noveno semestre del programa de ingeniería en multimedia, en la universidad Militar Nueva Granada. El estudio se desarrolló bajo la modalidad b-learning a lo largo de un año académico, en cada curso se desarrollaron actividades por 4 semanas (contexto en el cual se incluyó las estrategias de evaluación).

Tabla N° 1: Estudiantes que participaron en el estudio Curso

Los datos descriptiva.

3. 4. 5. 6.

obtenidos

22 18 13 se

analizaron

Total Est25 18 14 mediante

estadística

Los objetivos del cuestionario fueron: i ) caracterizar el perfil de los estudiantes en cuanto a la edad , y las cualificaciones académicas ; ii ) recopilar las opiniones de los estudiantes sobre el módulo en general, los profesores, la enseñanza y las estrategias de aprendizaje ; iii ) reunir las percepciones de los estudiantes acerca de las tareas y el proceso de evaluación .

Las competencias y habilidades que se evaluaron en esta actividad fueron:

2.

Est. encuestados

Curso A Curso B Curso C

Teniendo en cuenta las competencias de investigación que los estudiantes deben desarrollar en el programa trabajo de grado, se proponen a los estudiantes producir colaborativamente un documento de revisión de la literatura (tipo artículo de reflexión) en grupos, acerca de un tema de su elección.

1.

Evaluar el trabajo que fue producido en colaboración, así como las contribuciones individuales (autónomas) Reflexionar sobre las competencias que se han desarrollado por cada uno.

Recuperar, seleccionar y analizar la información pertinente (artículos, libros, tesis, informes...) sobre el tema seleccionado. Compartir, discutir, negociar significados y puntos de vista expresados en la información seleccionada. Contribuir a la creación de un ambiente agradable y participativo. Organizar y sintetizar la información con respecto a la producción de una publicación académica. Utilizar las TIC adecuadamente y críticamente en el proceso de investigación Comunicar, oralmente y por escrito sus apreciaciones.

El perfil de los alumnos, en los diferentes grupos, fue similar y se puede resumir de la siguiente manera: un rango de edad entre los 18-26 años y todos con cualificación académica elevada (promedio de 4.0/5.0 en adelante).

3. EL DISEÑO – BASADO EN CICLOS Y RESULTADOS En cada grupo se evalúa las actividades y se re-diseñan para su aplicación en el siguiente grupo. Los cambios hacen referencia a 2

Tlamati, Número Especial 3 CICOM 2014 las actividades de evaluación, así como a las herramientas web 2.0 utilizadas (Wiki – Red Social - CMS) (tabla 2) las que se discuten en los párrafos siguientes.

4

3.1 Actividades Curso A Situación: Desde la experiencia de los autores respecto a los grupos de trabajo, se encontró falta de colaboración entre equipos de trabajo, además estudios anteriores de los autores [13] demostraron que la evaluación debe ser negociado y transparente para ser efectiva. Diseño e implementación: En este curso se utiliza una Wiki como herramienta web 2.0, con el fin de aumentar el trabajo colaborativo en grupos [13] además se utiliza la misma herramienta para realizar varias pruebas de evaluación entre pares y autoevaluación.

Cada grupo creo una página web (moodle) en donde sus compañeros y docentes escribieron sus comentarios, de esta manera los estudiantes podían tener retroalimentación constructiva de sus compañeros. En esta página se incluyeron los criterios indicadores para evaluar los documentos (producto) de revisión de literatura tales como:

2.

La idoneidad de escritura (por ejemplo, el uso de las directrices académicas de escritura)

3.

La pertinencia de la estructura (incluyendo una introducción, la metodología utilizada para recuperar y analizar la información , su organización, y una conclusión)

4.

La originalidad de la contribución (valor añadido , la nueva información ... )

5.

La idoneidad de la búsqueda de información y las estrategias de evaluación.

Curso B

Evaluacion por pares Autoevaluacion 0

Curso A – Wiki Auto-ev. inicial (google docs)

Curso B – Red Social Refl. individual (google docs) Ev.(revisión de literatura)

2

3

Ev. formativa: ev.pares y ev. docente (Wiki1era versión)

Ev. formativa: ev.pares y ev. docente (google docs - 1era versión)

5

Relevante

Tabla N° 2: Actividades Programadas en los cursos Sem ana 1

Ev.sumativa: autoev., ev. pares y ev.docente (competencias y producto)

Así, la evaluación parece ser más una forma de obtener calificaciones numéricas que una estrategia de aprendizaje. Los resultados presentados también podrían estar relacionados con el hecho de que los estudiantes se sentían incómodos y confusos, debido a que se utilizaron las apreciaciones de otros colegas para su evaluación y parecía ser reticentes a exponer sus propias reflexiones abiertamente (la tarea se llevó a cabo en un wiki), como también lo ha reportado [5] en estudios similares.

Otra estrategia de evaluación, implementada en esta edición, fue la evaluación entre pares de los estudiantes sobre la labor realizada por al menos otros dos grupos más, durante la tercera semana (ver tabla 1).

La definición clara de las preguntas u objetivos de investigación

Ev.sumativa: autoev, ev.pares y ev. docente (producto y competencias)

Evaluación y reflexión: Los resultados (ver figura 1) muestran que las tareas de evaluación se consideraron difícil por algunos estudiantes, y la mayoría de ellos no valoraron la participación de grupo y la evaluación por pares en las actividades. Los resultados sugieren que las estrategias de evaluación implementadas no son comunes, incluso entre los profesores. Conforme a lo mencionado por Draper [14], muchos estudiantes ignoraron la retroalimentación formativa escrita y sólo prestaron atención a los puntajes de la evaluación cuantitativa (sumativa).

Para contribuir a la reflexión sobre el trabajo y los resultados de aprendizaje, se les pidió a los estudiantes hacer una reflexión individual (autoevaluación) durante la primera semana (tabla 1), para para este propósito se utilizó Google Docs con el fin de facilitar el diagnóstico de las ideas previas de los alumnos sobre el tema del grupo.

1.

Ev. sumativa: autoev., ev.pares y ev.docente (producto y competencias)

10

15

Muy dificil

Curso A

Curso C - CMS Refl. individuales – (Drupal grups) Ev.(rev. de literatura +retroalimen) Ev. Formativa: ev.pares y ev. docente (estructura art.) Ev.formativa: ev. pares y ev. docente (CMS + e-mail – 1era versión)

Evaluacion por pares Autoevaluacion 0 Relevante

5

10

15

20

25

Muy dificil

Grafico N° 1: evaluación y autoevaluación curso A y B

3

Tlamati, Número Especial 3 CICOM 2014 De los resultados de este curso, se decidió alentar a los estudiantes a discutir abiertamente sus reflexiones, para que puedan compartir y discutir los posibles problemas comunes, y sobre todo, para animar a los estudiantes para hacer frente a la evaluación como una estrategia de aprendizaje y no sólo como una manera de marcar las contribuciones individuales de los estudiantes dentro de los grupos de trabajo. Las tareas de evaluación incluyeron un componente formativo al que se le atribuyo un énfasis especial. Las calificaciones finales y las ponderaciones correspondientes se negociaron dentro de la clase en la primera sesión.

El análisis de la calidad de la evaluación por los pares de los estudiantes en el Curso B, demostró que se debía mejorar la calidad de las participaciones, ya que la mayoría de los grupos no proporcionó suficiente retroalimentación constructiva. Aunque la evaluación de pares incluyó críticas (positivas o negativas) y sugerencias, los grupos no cuestionaron a sus pares. Además de eso, las consideraciones no resumen los principales aspectos positivos y negativos del trabajo en grupo, esto puedo ser debido a que la estructura del instrumento no tenía un vínculo específico para hacer este tipo de consideraciones.

3.2 Actividades Curso B

3.3 Actividades Curso C

Situación: Los problemas que surgieron en el Curso A abarcaron las percepciones de los estudiantes acerca de la evaluación y su falta de familiaridad con la evaluación de las estrategias del aprendizaje (auto y evaluación entre pares), situación de base para el diseño de la estrategia en este Curso B.

Situación: A partir de los resultados del Curso B, y teniendo en cuenta los principios de calidad antes mencionados, se infería que en este curso la utilidad de la evaluación por pares podría ser mejor, la cual fue más allá de lo esperado. Diseño e implementación: De acuerdo con los resultados anteriores, se rediseñaron las estrategias de evaluación y el proceso.

Diseño e implementación: Teniendo en cuenta el problema mencionado anteriormente (los alumnos de la primera edición no valoran las estrategias de evaluación), para promover la evaluación para el aprendizaje, los principales cambios en la segunda edición fueron: i) utilizar una herramienta de participación abierta para todo el grupo (Redes sociales), ii ) el marco de la evaluación , el peso de las diferentes dimensiones, criterios e indicadores y la participación de los estudiantes, se negociaron en la primera sesión, en consecuencia, la transparencia de los criterios e indicadores de evaluación fue mayor, iii) Proporcionar información periódica del sistema de evaluación (apreciación de pares y docentes). Además, se realizó la evaluación de la primera versión del trabajo en grupo mediante un formulario de Google Docs, ya que en el Curso A los estudiantes se sentían incómodos al evaluar sus colegas en la wiki (ver tabla 1).

En el marco de evaluación por pares (tabla 2), se compartió y discutió con los estudiantes los parámetros y los resultados esperados, así como los resultados de los cursos anteriores. En este curso se pudo observar que hubo mayor compromiso de los estudiantes con las tareas de evaluación además de un aumento en el grado de importancia en el dialogo y la retroalimentación con los pares, finalmente los estudiantes lograron establecer que los principales beneficiarios de la evaluación conjunta son ellos mismos. Otro cambio principal fue proporcionar a los estudiantes oportunidades adicionales para utilizar el marco de la evaluación del trabajo en grupo. La evaluación por pares se realizó dos veces: en una versión preliminar del documento elaborado por el grupo de trabajo (en la segunda semana) y en la primera versión del documento (tercera semana). Esto ayudó a los estudiantes a cumplir con la tarea, aprendiendo a través del ensayo. Ver Tabla 3

Evaluación y análisis: Los resultados mostraron que los cambios introducidos llevaron a un aumento en el número de estudiantes que participaron en las tareas de evaluación (100%). Al comparar la dificultad y la relevancia de las tareas de evaluación de propuestas (véase la figura 1), en el Curso A únicamente 2 de 20 estudiantes consideraron relevante las tareas de evaluación entre pares, mientras que en Curso B 12 de 18 estudiantes encuestados consideran las tareas de evaluación pertinentes para alcanzar los objetivos de aprendizaje.

Tabla N° 3: Criterios e indicadores de evaluación curso C Criterio Puntos de negociación Vocabulario Adecuado Feedb Criti ack ca Preg unta Sug eren cia Calificación justa Consideració n final

Por lo tanto, los resultados parecen demostrar que los estudiantes en este Curso estaban más conscientes de la importancia de las tareas de evaluación sobre todo porque podrían beneficiarse de las participaciones de sus pares, ya que este tema fue discutido en la primera sesión presentando los principios de evaluación subyacentes en el plan de estudios del curso, así como los resultados de la experiencia previa. En esta edición los profesores decidieron analizar la calidad de la evaluación por pares proporcionada por los estudiantes. Los criterios de calidad utilizados para este análisis fueron adaptados [15] e incluyen los siguientes: i) el uso de los criterios negociados, adecuación del vocabulario escogido; iii) el suministro de retroalimentación constructiva (a- crítica, bpregunta, sugerencia c- mejora) y v) la idoneidad de las consideraciones finales.

Indicador Aplican los criterios de negociación con palabras y frases explicitas Los conceptos son usados con rigor y se diferencian claramente Los pares incluyen textos críticos (positivos y negativos) Los pares hacen preguntas que llevan a la reflexión Los pares incluyen textos con sugerencias frente a la revisión de la literatura, proponiendo autores o análisis de los ya existentes. Los pares incluyen puntajes acorde a la relevancia de la retroalimentación Se presenta una síntesis constructiva de los aspectos de más relevantes del trabajo en grupo.

Esta decisión se asumió para la mejora de las actitudes y percepciones de los estudiantes acerca de la evaluación para el aprendizaje, como sugieren los autores Sato, Wei y Darling4

Tlamati, Número Especial 3 CICOM 2014 retroalimentación constructiva puede aumentar el rendimiento de la evaluación y evitar comentarios inexactos.

Hammond (2008). Por otra parte, la formación de los estudiantes podría elevar las competencias de evaluación de ambos evaluados y evaluadores (Gielen, Peeters, Dochy, Onghena y Struyven, 2010), la asignación de las tareas de evaluación a los diferentes grupos se hizo por correo electrónico.

Dado que la calidad de la evaluación por los compañeros puede afectar a su impacto [16], los resultados del estudio proporcionan evidencia que la calidad puede ser mejorada por los alumnos que guían al realizar este tipo de tareas, la negociación del marco de evaluación, de modo que los alumnos puedan familiarizarse con ella y producir retroalimentación significativa.

En resumen, la evaluación entre pares fue confidencial, obligatoria y complementaria (los profesores evaluaron el trabajo entre los grupos), lo que hizo que los estudiantes se sienten más seguros en la tarea, que en los grupos anteriores. Evaluación y análisis: La figura 2 indica que sólo un estudiante se sintió incómodo al conocer la evaluación hecha por sus colegas y que cuatro estudiantes se sentían incómodos por la evaluación de los trabajos de los otros grupos. La mayoría de los estudiantes (9 estudiantes de los 13) se mostraron satisfechos con la estrategia de la evaluación por pares adoptada. Los resultados se ilustran con las propias palabras de los estudiantes.

Creo que es muy dificil la evaluacion por pares Considero que la evaluacion por pares es un desafio intelectual

La Figura 2 muestra que estaban satisfechos con: i)

Los criterios e indicadores de evaluación - " Fue importante ( ... ) los criterios e indicadores de evaluación ya predefinidos, por lo que podríamos estar enfocados en los aspectos más relevantes a la hora de pensar y reflexionar sobre el trabajo de nuestros compañeros"

Creo que es util y provechoso para mi desarrollo evaluar a mis pares Me siento satisfecho con el proceso y los resultados de la evaluacion por pares

ii) El tiempo dedicado a evaluar sus compañeros , aunque algunos estudiantes mencionaron que la tarea era - " difícil debido a la falta de tiempo y el conocimiento del trabajo de los demás "

Me siento comodo con la estrategia de la evaluacion por pares

iii) El compromiso con la tarea - "Esta fue una de las tareas que más me gustaron porque era una manera de salir de nuestro trabajo en grupo y ser parte de los otros grupos , a través de la reflexión " iv) La evaluación llevada a cabo por sus colegas, pero se consideró que la evaluación por pares debe ser complementaria " (...) además me gusto la evaluación que completo el docente porque así se pudo reducir las posibles incoherencias, incertidumbres e injusticias”.

Grafico N° 2: Percepciones de la evaluación curso C La experiencia de los autores también muestra que las percepciones negativas acerca de la evaluación, es decir, los estudiantes de resistencia, pueden disminuir cuando la experiencia de los estudiantes aumenta.

Por otra parte, la mayoría de los estudiantes mencionó que la tarea de evaluar a sus colegas era útil, ya que promueve la autoreflexión (12 estudiantes) y que era muy útil para el desarrollo de su propio trabajo y los resultados finales (10 estudiantes). Por último, cinco estudiantes consideraron que la evaluación por pares es difícil y 9 estudiantes de acuerdo en que la evaluación por pares formativa era un desafío intelectual. Conforme a lo mencionado por uno de los estudiantes "(...) otro punto relevante es el enfoque en la evaluación por los compañeros, porque esto es algo que no estamos entrenados; sin embargo, este módulo nos ha ayudado a crear nuevos conocimientos y nuevas habilidades (...)

Atendiendo a los resultados de este estudio, diferentes recomendaciones deben ser considerados cuando se utiliza la evaluación para el aprendizaje en contextos similares: La evaluación para el proceso de aprendizaje debe ser transparente, para que los estudiantes tomen conciencia que el beneficiario principal de las estrategias de evaluación son los mismos estudiantes [2]. Esta transparencia se puede lograr mediante el análisis y discusión del marco de evaluación, y de involucrar a los estudiantes y docentes en un proceso de diálogo y la retroalimentación, además del uso de las tecnologías digitales apropiadas.

A pesar del hecho de que algunos alumnos aún tenían algunas preocupaciones acerca de la evaluación como estrategia de aprendizaje, percibían claramente sus beneficios. Los resultados también mostraron que los estudiantes habían aumentado las actitudes positivas hacia las tareas de evaluación.

La Evaluación de las estrategias de aprendizaje deben proporcionar la oportunidad de practicar y lograr que los estudiantes aumenten su sentido de pertenencia, responsabilidad y motivación, por lo que pueden encontrar útil, atractivo y agradable.

4. CONCLUSIONES En línea con Sluijsmans, Marcas Gruwel, Van Merriënboer y Martens [15] los resultados del presente estudio sugieren que la formación de estudiantes en relación al proceso de 5

Tlamati, Número Especial 3 CICOM 2014 [11] Waycott, J., Gray, K., Thompson, C., Sheard, J., Clerehan, R., Richardson, J., & Hamilton, M. 2010. Transforming assessment in higher education: A participatory approach to the development of a good practice framework for assessing student learning through social web technologies. In C.H. Steel, M.J. Keppell, P. Gerbic & S. Housego (Eds.), Curriculum, technology & transformation for an unknown future. (pp.1040-1050). Sydney: Ascilite

5. REFERENCIAS [1] Van Gennip, N. A. E., Segers, M. S. R., & Tillema, H. H. 2009. Peer assessment for learning from a social perspective: The influence of interpersonal variables and structural features. Educational Research Review, 4, 41-54. [2] Hatzipanagos, S., & Rochon, R. 2011. Approaches to Assessment That Enhance Learning in Higher Education. Routledge, Taylor & Francis Group.

[12] Parker, J. 2011 a design-based research approach for creating effective online higher education courses. In: 26th Annual Research Forum: Educational Possibilities (Western Australian Institute for Educational Research Inc), 13 August 2011, University of Notre Dame, Fremantle.

[3] Cartney, P. 2010. Exploring the use of peer assessment as a vehicle for closing the gap between feedback given and feedback used. Assessment & Evaluation in Higher Education, 35 (5), 551-564.

[13] González, K., Padilla, J. & Arias. N. 2011. Análisis de los estilos de aprendizaje en la implementación de actividades a través de una Wiki. Revista Virtual Universidad Católica del Norte, (32). Recuperado de: http://revistavirtual.ucn.edu.co/index.php?option=com_conte nt&task=view&id=163&Itemid=1

[4] Strijbos, J. - W., & Sluijsmans, D. 2010. Unravelling peer assessment: Methodological, functional and conceptual developments. Learning and Instruction, 20, 265-269. [5] Topping, K. J. 2009. Peer assessment. Theory into Practice, 48, 20-27.

[14] Draper, S. W. 2007. A momentary review of assessment principles. Paper presented at the REAP Conference – Assessment design for learner responsibility. Retrieved November 15, 2012, from http://www.psy.gla.ac.uk/~steve/rap/nicol7.html.

[6] Kaufman, J., & Schunn, C.2011. Students' Perceptions about Peer Assessment for Writing: Their Origin and Impact on Revision Work. Instructional Science: An International Journal of the Learning Sciences, 39(3), 387-406. [7] Lu, J., & Zhang, Z. 2012. Understanding the Effectiveness of Online Peer Assessment: A Path Model. Journal of Educational Computing Research, 46(3), 313-333.

[15] Sluijsmans, D.M.A., Brand-Gruwel, S., Van Merriënboer, J.J.G., & Martens, R.L. 2004. Training teachers in peerassessment skills: effects on performance and perceptions. Innovations in Education and Teaching International, 41, 60-78.

[8] Mok, J. 2011. A Case Study of Students' Perceptions of Peer Assessment in Hong Kong. ELT Journal, 65(3), 230-239. [9] Patton, C. 2012. "Some Kind of Weird, Evil Experiment": Student Perceptions of Peer Assessment. Assessment & Evaluation in Higher Education, 37(6), 719-731.

[16] Gielen, S., Peeters, E., Dochy, F., Onghena, P., & Struyven, K. 2010. Improving the effectiveness of peer feedback for learning. Learning and Instruction, 20, 304-315.

[10] Ertmer, P.A., Richardson, J.C., Belland, B., Camin, D., Connolly, P., & Coulthard, G. 2007. Using peer feedback to enhance the quality of student online postings: An exploratory study. Journal of Computer-Mediated Communication, 12(2), article 4. Retrieved October 30, 2012, from:http://jcmc.indiana.edu/vol12/issue2/ertmer.html

6

Tlamati, Número Especial 3 CICOM 2014

Generador de Sistemas Expertos Boris A. Aranda Benítez Instituto Tecnológico de Zacatepec (ITZ) Departamento de Sistemas y Computación Calzada Tecnológico no. 27 col. Centro Zacatepec Morelos, México. C.P. 62900.

Laura Villavicencio Gómez

Rogelio Jaramillo Lima

Instituto Tecnológico de Zacatepec (ITZ) Departamento de Sistemas y Computación Calzada Tecnológico no. 27 col. Centro Zacatepec Morelos, México. C.P. 62900.

Instituto Tecnológico de Zacatepec (ITZ) Departamento de Sistemas y Computación Calzada Tecnológico no. 27 col. Centro Zacatepec Morelos, México. C.P. 62900.

[emailprotected]

[emailprotected]

[emailprotected] RESUMEN

ABSTRACT

En el presente artículo se muestra parte del diseño, desarrollo e implementación del Generador de Sistemas Expertos. También se explica el planteamiento del problema, la hipótesis, el objetivo general y los específicos, justificación, alcances y limitaciones. El Generador de Sistemas Expertos tendrá la capacidad para generar todos los módulos de un Sistema Experto teniendo como fundamento conceptual los Sistemas Expertos, los Shells de Sistemas Expertos, los tipos de Shell. También teniendo como fundamento teórico la Inteligencia Artificial, los Sistemas Basados en Conocimiento, el generador de código, las plantillas, ranuras de expansión, la Programación Orientada a Objetos, el lenguaje JAVA y las bases de datos.

This article shows part of the design, development and implementation of expert systems generator. It also explains the problem statement, hypothesis, general and specific objectives, rationale, scope and limitations. The Expert System Builder will have the ability to generate all modules of an Expert System as the conceptual foundation bearing Expert Systems, Expert System Shells, Shell types. Also have as theoretical fundaments, artificial intelligence, knowledge-based systems, the code generator, templates, expansion slots, Object Oriented Programming, JAVA language and databases.

1. INTRODUCCIÓN

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

En la actualidad, los Sistemas Expertos constituyen el área de la Inteligencia Artificial que quizá en este momento tiene más relación con el apoyo al proceso de la toma de decisiones en las organizaciones. Estos sistemas, denominados también Sistemas Basados en el Conocimiento, permiten cargar bases de conocimientos integradas por una serie de reglas de sentido común o conocimiento heurístico; es decir, conocimiento basado u obtenido a través de la experiencia de un especialista o experto.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

7

Tlamati, Número Especial 3 CICOM 2014

Existen dos habilidades fundamentales que poseen los Sistemas Expertos: •

Habilidad de aprendizaje.

Habilidad para simular razonamiento humano.

el

proceso

conocimiento usado para hacer esas inferencias será representado dentro de la máquina. El término Inteligencia cubre muchas habilidades conocidas, incluyendo la capacidad de solucionar problemas, de aprender y de entender lenguajes; la IA dirige todas estas habilidades. La mayoría de los esfuerzos en IA se han hecho en el área de solucionar los problemas, los conceptos y los métodos para construir los programas que razonan acerca de los problemas y que luego calculan una solución.

de

La habilidad de aprendizaje requiere la interacción de un experto en alguna rama específica del saber y un ingeniero de conocimiento, que se encarga de traducir este conocimiento del experto a reglas heurísticas para formar la base de conocimiento.

Los programas de IA que logran la capacidad experta de solucionar problemas aplicando las tareas específicas del conocimiento se llaman Sistemas Basado en Conocimiento o Sistemas Expertos. A menudo, el término Sistemas Expertos se reserva para los programas que contienen el conocimiento usado por los humanos expertos, en contraste al conocimiento recolectado por los libros de textos. Los términos, Sistemas Expertos (SE) y Sistemas Basados en Conocimiento (SBK), se utilizan como sinónimos. Tomados juntos representan el tipo más extenso de aplicación de IA.

La habilidad para imitar el razonamiento que posee el Sistemas Experto se desprende de “caminar” a lo largo de las reglas heurísticas introducidas o enseñadas al sistema por un experto, a través del proceso de aprendizaje durante la carga o generación de la base del conocimiento. [1] Un Sistema Experto debe de tener en lo posible, lo más importante de las características de un experto: • • • •

Habilidad para adquirir conocimiento. Fiabilidad para poder confiar en sus resultados o apreciaciones. Solidez en el dominio de su conocimiento. Capacidad para resolver problemas.

El área del conocimiento intelectual humano para ser capturado en un Sistema Experto se llama el dominio de la tarea. La tarea se refiere a una cierta meta orientada, actividad de solucionar el problema. El dominio se refiere al área dentro de la cual se está realizando la tarea. Las tareas típicas son el diagnóstico, hojas de operación (planning), la programación, configuración y diseño. Un ejemplo de dominio de una tarea es la programación del equipo de un avión.

Dada la complejidad de los problemas puede existir cierta duda sobre la validez de respuesta obtenida: indispensable que sea capaz de explicar su proceso de razonamiento o dar razón del por qué solicita tal o cual información o dato. [2]

La construcción de un Sistema Experto se llama Ingeniería del Conocimiento y sus médicos son los Ingenieros del Conocimiento. El Ingeniero del Conocimiento debe cerciorarse de que la computadora tenga todo el conocimiento necesario para solucionar un problema. También debe elegir una o más formas en las cuales representar el conocimiento requerido en la memoria de la computadora, es decir, él debe elegir una representación del conocimiento. Él debe también asegurarse de que la computadora pueda utilizar eficientemente el conocimiento, seleccionando de un conjunto de métodos de razonamiento. [3]

1.2 ¿Qué son los shell de sistemas expertos? Los Shells o Generadores de Sistemas Expertos son programas o software que permiten desarrollar los Sistemas Expertos. Los Shells contienen un motor de inferencia y utilizan métodos propios de representación del conocimiento. Específicamente, el Shell constituye la herramienta que apoya el proceso de creación de las bases de conocimiento y facilita la utilización del modelo por parte de los usuarios. [1] 1.3 ¿Qué son los sistemas expertos?

1.4 Arquitectura de un Sistema Experto.

Son programas de computación que se derivan de una rama de la investigación informática llamada Inteligencia Artificial (IA). El objetivo científico de la IA es entender la Inteligencia. Está referida a los conceptos y a los métodos de inferencia simbólica, o de razonamiento por computadora, y cómo el

Un Sistema Experto consta de 7 elementos los cuales son:

8

Tlamati, Número Especial 3 CICOM 2014

Motor de inferencia o Intérprete de Reglas. Este motor de inferencia trabaja con la información contenida en la base de conocimientos y la base de hechos para deducir nuevos hechos. Se encarga de las operaciones de búsqueda y selección de las reglas a utilizar en el proceso de razonamiento. Contrasta los hechos particulares de la base de hechos con el conocimiento contenido en la base de conocimientos para obtener conclusiones acerca del problema.

Subsistema de explicación. Básicamente lo que trata es de explicar al usuario tanto las reglas usadas como el conocimiento aplicado en la resolución de un determinado problema. Usando el módulo del subsistema de explicación, un Sistema Experto puede proporcionar una explicación al usuario de por qué está haciendo una pregunta y cómo ha llegado a una conclusión.

Base de hechos. Contiene los hechos sobre un problema que se han descubierto durante una consulta. Se trata de una memoria temporal auxiliar que almacena los datos del usuario, datos iniciales del problema, y los resultados intermedios obtenidos a lo largo del proceso de resolución.

esencial, y que, separadas de las bases de conocimiento y de hechos, constituyen una herramienta software para el desarrollo de los Sistemas Basados en el Conocimiento.

Base de conocimientos. Esta contiene el conocimiento que se debe extraer del experto y codificarlo en la base de conocimientos. La forma clásica de representar el conocimiento en un Sistema Experto son la utilización de reglas es decir básicamente constituye la descripción de los objetos y las relaciones entre ellos, así como de casos particulares y excepciones.

Módulo de comunicaciones. Puesto que los Sistemas Basados en el Conocimiento no viven aislados sino que interactúan con otros sistemas es decir no solo son capaces de interactuar con el experto sino con estos sistemas, para poder recoger información o consultar bases de datos.[4]

La figura 1 muestra la arquitectura y funcionamiento de un Sistema Experto.

Figura 1.- Arquitectura y Funcionamiento de un Sistema Experto.

2. PLANTEAMIENTO DEL PROBLEMA Los Sistemas Expertos son una de las ramas de la Inteligencia Artificial que ha sido estudiada desde los años 70 pero aun así el funcionamiento del motor de inferencia no está descrito claramente en los documentos existentes y los tutoriales de los diversos Shells que existen en el mercado ya sean libres o pagados no dan ninguna información del proceso de inferencia que realizan (Exsys, Xpert Rule, VP-Expert y Expert Sinta).

Interfaz de usuario. Todo sistema dispone de una interfaz de usuario, que gobierna el diálogo entre el sistema y el usuario lo que hace posible la comunicación. Por tanto debe ser interactiva siguiendo el patrón de la conversación entre seres humanos. Un requerimiento básico del interfaz es la habilidad de hacer preguntas. Para obtener información fiable del usuario hay que poner especial cuidado en el diseño de las cuestiones.

La programación de un Sistema Experto completo conlleva un grado de dificultad superior a la programación de un sistema de información y requiere gran cantidad de tiempo y esfuerzo.

Módulo de adquisición de conocimiento. Le sirve al experto para que pueda construir la base de conocimiento de una forma sencilla, así como disponer de una herramienta de ayuda para actualizar de la base de conocimiento cuando sea necesario. El módulo de adquisición del conocimiento, forman el esqueleto o sistema

Los Shells que son libres en la red generalmente no tienen completos todos los módulos de inferencia y ninguno presenta un módulo de explicación. Con lo que un Sistema Experto utilizando un Shell no puede

9

Tlamati, Número Especial 3 CICOM 2014

explicar su razonamiento y por lo tanto no está completo su funcionamiento.

6.1 Alcances El sistema desarrollado tendrá la capacidad para generar todos los módulos de un Sistema Experto mediante la utilización de las técnicas de plantillas y ranuras de expansión utilizando también la metodología de los Generadores de Códigos Automáticos, el Sistema Experto generado tendrá las siguientes pantallas: bienvenidad del sistema, menú general, acerca de, menú experto, altas, bajas, modificaciones, consulta y reporte de objetos, características y cuadro relación; también tendrá un menú de usuario con búsqueda inductiva y deductiva además de un módulo de explicación.

3. HIPÓTESIS Utilizando la Programación Orienta a Objetos, plantillas y ranuras de expansión se puede generar un Shell de Sistemas Expertos. 4. OBJETIVO GENERAL Apoyar a los Ingenieros en Conocimiento en la elaboración de Sistemas Expertos mediante el desarrollo de una aplicación que los genere de manera automática.

6.2 Limitaciones 5. OBJETIVOS ESPECÍFICOS • • •

• •

La limitación principal es que se genera una base de conocimientos vacía que debe de ser llenada por un experto en la materia. También se requieren los conocimientos básicos de computación y conocimiento de Sistemas Expertos para poder utilizar el Generador de Sistemas Expertos.

Disminuir el tiempo de elaboración de un Sistema Experto. Evitar que los Ingenieros en Conocimiento programen desde un inicio el Sistema Experto. Generar Sistemas Expertos completos con base de conocimiento vacía de cualquier rama del saber humano. Generar los programas y módulos de un Sistema Experto en lenguaje java. Generar una base de conocimientos vacía con el manejador MySQL.

7. METODOLOGÍA Se diseñó e implementó el Generador de Sistemas Expertos para crear el Sistema Experto que se desee, fue programado desde cero en JAVA con acceso al manejador de bases de datos MySQL, utilizando todos los beneficios de la Programación Orientada a Objetos.

6. JUSTIFICACIÓN El desarrollo de este proyecto permitirá que personas no expertas en esta área de programación puedan generar Sistemas Expertos (interfaz de usuario, interfaz de experto, módulo de explicación, búsqueda inductiva y búsqueda deductiva). El personal del Instituto Tecnológico de Zacatepec podrá utilizar este sistema para generar Sistemas Expertos para cualquier departamento administrativo o docente que los apoyen en la toma de decisiones diarias. Los investigadores de cualquier área del tecnológico podrán acceder a este sistema para generar Sistemas Basados en Conocimiento que los apoyen en sus labores de investigación. Figura 2.- Arquitectura del Generador de Sistemas Expertos.

10

Tlamati, Número Especial 3 CICOM 2014

La representación gráfica de los principales elementos que intervienen en el Generador de Sistemas Expertos se muestra en la figura 2, como son: los datos del Sistema Experto a generar ingresados por el usuario y validados por el sistema, el banco de plantillas y el módulo generador para finalmente generar él Sistema con todos sus módulos que son interfaz de usuario, interfaz de experto, módulo de explicación, búsqueda inductiva y búsqueda deductiva.

medio de etiquetas que se muestran definidas en la Tabla 1. Estas etiquetas permitirán sustituir en las plantillas la información que el usuario desee en el Sistema Experto a generar. Una vez que el proceso de generación termine se generara un Sistema Expertos con todos sus módulos, estos módulos son: interfaz de usuario, interfaz de experto, módulo de explicación, búsqueda inductiva y búsqueda deductiva.

Los resultados que se obtienen del Sistema Experto generado son basados en un motor de inferencia funcionando correctamente obteniendo como base la base del conocimiento y la base de hechos estos permitirán almacenar en las tablas los resultados obtenidos. Se puede iniciar el motor de inferencia por medio de una búsqueda inductiva o una búsqueda deductiva que el usuario podrá elegir.

Etiqueta rx_1 rx_2 rx_3 rx_4 rx_5 rx_6 rx_7 rx_8

Elementos del Sistema Experto Generado: •

• • •

Módulos: Interfaz de usuario, interfaz de experto, módulo de explicación, búsqueda inductiva y búsqueda deductiva. Motor de interferencia: Funcionando correctamente. Base de conocimiento. Base de hechos.

DESCRIPCIÓN Nombre del Sistema Experto Nombre empresa u organización Objeto a diagnosticar o identificar Característica del objeto Descripción del objeto Relación objeto-característica Contraseña del área del interfaz experto Nombre del experto en conocimiento Tabla 1.- Valores de Etiquetas

8. RESULTADOS DEL SISTEMAS EXPERTOS

GENERADOR

DE

La aplicación del Generador de Sistemas Expertos inicia con la ventana de principal que contiene los logotipos de las instituciones participantes, el nombre del proyecto y los botones de acceso y salida al proyecto. (Ver fig. 4)

La figura 3 muestra la arquitectura y funcionamiento del Generador de Sistemas Expertos.

Figura 3.- Arquitectura y Funcionamiento del Generador de Sistemas Expertos.

El Generador de Sistemas Expertos creara un Sistema Experto Completo por medio de la información que el usuario introdujo en la interfaz del Generador de Sistemas Expertos. Se programo un Sistema Experto completo en el lenguaje de programación JAVA el cual servirá de plantilla para generar los Sistemas Expertos deseados. Las plantillas contienen ranuras de expansión por

Figura 4.- Portada inicial del Generador de SE

11

Tlamati, Número Especial 3 CICOM 2014

Al hacer clic el botón “ACERCA DE” se mostrará la ventana que proporciona la información de los autores del proyecto como se observa en la figura 5.

Figura 7.- Datos sobre el objeto

Una vez que se ha llenado los “Datos sobre el objeto” se podrá seleccionar la opción “SIGUIENTE” mostrado en la Figura 7, se observara la ventana de “proceso de creación del Sistema Experto” como se observa en la Figura 8.

Figura 5.- Opción acerca de

Se regresa al menú principal dando clic en el botón “regresar” y una vez que sea presionado el botón “GENERADOR” mostrado en la figura 4, se observara la ventana de “Datos generales del Sistema Experto” como se observa en la figura 6.

Figura 8.- proceso de creación del Sistema Experto a Generar

El proceso para generar el Sistema Experto inicia después de dar clic en el botón “GENERAR S.E.” que se observa en la Figura 8. En la en la Figura 9 se observa la ventana donde se muestran los resultados del proceso de creación del Sistema Experto.

Figura 6.- Opción de generador

Una vez que se han llenado los “Datos Generales del Sistema Experto” y seleccionado las imágenes requeridas se podrá dar clic en el botón SIGUIENTE como se observa en la Figura 6. Al seleccionar la opción se continuara con la ventana “datos sobre el objeto” donde se ingresara los datos del objeto a identificar o a diagnosticar como se observa en la Figura 7.

Una vez terminado el proceso de creación, el Generador de Sistemas Expertos mandara un mensaje indicando que el Sistema Experto se ha generado como se muestra en la Figura 9.

12

Tlamati, Número Especial 3 CICOM 2014

También en el desarrollo de este proyecto se requieren fuertes y sólidos conocimientos de Sistemas Expertos así como su implementación. El proyecto requirió el desarrollo de un Sistema Experto completo genérico para poder reutilizar los componentes en forma de plantillas y dar origen a cualquier tipo de Sistema Experto requerido. El objetivo del proyecto se cumplió satisfactoriamente como se puede notar en las pruebas y los casos práctico planteado en este artículo. El resultado final del desarrollo de este trabajo es la obtención del Generador de Sistemas Expertos que cumple con el objetivo propuesto, generar Sistemas Expertos de manera automática.

Figura 9.- Resultados del proceso de creación del Sistema Experto

8.1 Casos de estudio:

Su utilidad se centra en que permite desarrollar Sistemas Expertos de manera flexible. Es funcional y amigable para el usuario. La interacción con el sistema es a través de menús, botones, cajas de desplazamiento, hipervínculos, teclado, ratón. Ello ayuda a que el usuario no cometa errores al introducir información a través del teclado, situación fundamental que se buscaba evitar desde el inicio de este proyecto.

Se hicieron varios casos de estudios para probar el Generador de Sistemas Expertos, entre los cuales están: 1. Sistema Experto en Cardiología. 2. Sistema Experto para el Diagnóstico de Emergencias en Traumatología. 9. CONCLUSIONES:

10. BIBLIOGRAFÍA:

En la actualidad existen muchos problemas en diferentes ámbitos del saber humano que se pueden resolverse con la ayuda de los Sistemas Expertos.

[1] David King, Paul Harmon, " Sistemas Expertos."; Ediciones Díaz de Santos, 1988. [2] Alfredo Paredes Barros; “Inteligencia Artificial”; Editorial: Wesley Publishing Co. EE.UU. [3] Sistema Experto para el diagnóstico de la depresión; Tesis para obtener el título de Licenciatura en informática; Gloria Verónica Nina Huacani; Universidad Mayor de San Andrés; Año 2009. [4] Pignani Juan Manuel; Universidad Tecnológica Nacional; Sistemas Expertos; Investigación de la Universidad, año 2002.

En la investigación realizada se pudo comprobar que los Shells existentes presentan ventajas y desventajas ya que están desarrollados para un dominio en específico. La herramienta que presenta este trabajo utiliza plantillas. Las plantillas CASE son bien conocidas para el desarrollo de los sistemas de información, pero en los Shells no se tiene mucha documentación de su uso.

13

Tlamati, Número Especial 3 CICOM 2014

Minería de datos en estudios cienciométricos utilizando Bibexcel, Pajek y Vosviewer Israel Herrera Miranda Universidad Autónoma de Guerrero Cipes 16 de Septiembre # 42 San Mateo CP 39000 Chilpancingo, Gro. México 52(747)4729081 [emailprotected]

Miguel Apolonio Herrera Miranda Universidad Autónoma de Guerrero Unidad Académica de Matemáticas sede Acapulco

Rafael García Mencía Universidad Autónoma de Guerrero U.A. Ingeniería Uagro

[emailprotected]

[emailprotected]

RESUMEN

ABSTRACT

En este artículo se describe una propuesta metodológica para los estudios sociales de la ciencia en el estado de Guerrero utilizando software de minería de datos. En particular se tomó como fuente de información una base de datos sobre investigación mexicana en bibliotecología y ciencias de la información y la base de datos bibliográfica denominada Web of Science para la obtención de las referencias bibliográficas de revistas científicas de alto impacto. Se describen las potencialidades de tres programas de software de minería de datos: Bibexcel, Pajek y Vosviewer para el tratamiento, procesamiento, análisis y presentación de indicadores en ciencia y tecnología a través de dos estudios prototipo. Los indicadores cienciométricos son una fuente importante para la evaluación de la actividad científica y permiten orientar la toma de decisiones para la asignación de los apoyos y el financiamiento de de la misma, no obstante, deben considerarse como una parte integral de un proceso de evaluación más amplio.

A methodological proposal for the social studies of science in the state of Guerrero using data mining software is described in this article. In particular, is taken as the main information source a bibliographic database in library and information science and the bibliographic database named Web of Science in order to obtain references from high impact periodicals. The potential of three software programs for data mining are described: Bibexcel , Pajek and Vosviewer. These programs aid in the treatment, processing, analysis and presentation of scientometric indicators in science and technology, such as productivity, individual and institutional networks of co-authorship and citation patterns among others. Scientometric indicators provide a source for the evaluation of scientific activity and help to guide decisions making for the allocation of support and financing thereof. However, these indicators must be regarded as an integral part of an evaluation process.

Categorías y Descriptores Temáticos H.2.8 Database applications: Data mining, scientific databases, scienciometry. Aplicaciones de Bases de datos: Minería de datos, bases de datos científicas, cienciometría.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

Términos Generales Theory; Teoría .Palabras

clave

Data mining; science & technology indicators; Bibexcel; Pajek; Vosviewer. Minería de datos; ciencia y tecnología; Bibexcel, Pajek, Vosviewer.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

14

Tlamati, Número Especial 3 CICOM 2014 El primero contiene información bibliográfica de cerca de 8500 títulos de revistas científicas y técnicas de mayor prestigio a nivel internacional y el segundo alrededor de 3000 revistas en 50 diferentes disciplinas. La base de datos cuenta con información de citas (y ligas a texto completo) que tiene como objetivo analizar tendencias, productividad de los investigadores y compartir sus resultados.

1. INTRODUCCIÓN Parece apropiado empezar una propuesta metodológica tomando en consideración una estructura común, proponiendo objetos teóricos para los estudios de la ciencia. Estudiar el mundo de la ciencia, distinguiéndola de otros reinos que pueden ser estudiados en nuestra sociedad. Estudiar el desenvolvimiento de la ciencia tiene pretensiones objetivas que son articuladas con referencia a métodos particulares y resultados que son susceptibles de ser medidos y analizados[11][12].

2. MÉTODOS Considerando que esta base de datos es una ventana para identificar la productividad, la evolución de las disciplinas y las redes de colaboración entre investigadores e instituciones, el presente trabajo se dio a la tarea de probar tres herramientas y una propuesta de utilización de las mismas para agilizar el trabajo de procesamiento, análisis y extracción de información relevante referente a la evolución de las tendencias de la investigación, la formación de redes de coautoría y de citación a partir de las publicaciones científicas generadas por al menos un autor con adscripción institucional en el estado de Guerrero.

A lo largo de tres dimensiones y sus unidades de análisis correspondientes, se pueden distinguir estudios en varios niveles de agregación. Por ejemplo, las palabras están organizadas en textos, los artículos científicos en revistas, las revistas forman colecciones: los científicos forman grupos de investigación los cuales pertenecen a comunidades científicas: los nuevos conocimientos están basados en teorías. Las teorías están embebidas en disciplinas [1], [3][4],[7].

El Software Bibexcel [2] fue creado por el sociólogo Olle Persson de la Universidad Umeå en Suecia y está diseñado para ayudar al usuario en el análisis de los datos bibliográficos, o cualquier dato de carácter textual formateado de manera similar. La idea es generar archivos de datos que se pueden importar a Excel, o cualquier programa que maneje registros de datos de manera tabular, para su posterior procesamiento. Esta caja de herramientas incluye una serie de menús, algunos de ellos visibles en la ventana de la interfaz principal y las demás se esconden detrás de los mismos. Muchas de las herramientas se pueden utilizar en combinación para lograr los resultados deseados.

Fig.1. El estudio de la ciencia como un problema munltidimensional. Fuente (Leydesdorff, 2001: p. 4)

1.1 La ciencia en el estado de Guerrero El Cuerpo Académico UAGRO-CA-13 del Cipes tiene dentro de sus objetivos de investigación el describir el desenvolvimiento de la actividad científica en el estado de Guerrero y en especial de la Universidad Autónoma de Guerrero, dentro de un enfoque integral referente a los estudios sociales de la ciencia. Para ello, nos hemos dato a la tarea de diseñar una serie de procedimientos que sean el sustento metodológico de estos estudios. En una primera etapa, se ha considerado examinar las bases de datos de referencias bibliográficas de las publicaciones periódicas de alto impacto a nivel internacional, donde han publicado los investigadores con adscripción institucional en el estado de Guerrero.

Fig. 2. Interfaz de Bibexcel Bibexcel puede producir net files (archivos para visualización de grafos) que permiten visualizar redes de co-autorías, co-citación, etc.

En particular, un recurso de información sobre la investigación científica publicada en las revistas de mayor impacto a nivel internacional es la base de datos Web of Science de Thomson Reuters, que entre otros productos cuenta con: El Science Citation Index y El Social Sciences Citation Index [13].

La visualización y análisis de estas redes se puede realizar con el software Pajek [8] y Vosviewer [15]. Bibexcel también genera archivos de conjuntos de nodos (archivos de clusters) y archivos tipo vector para Pajek.

15

Tlamati, Número Especial 3 CICOM 2014 El Software Pajek (término esloveno que significa araña) es un programa de libre acceso para el análisis y visualización de redes sociales y grafos para diversas aplicaciones desarrollado en la Universidad de Ljubljana, Slovenia por Vladimir Batagelj, Andrej Mrvar; y Matjaz Zaversnik en 1996.

una distribución de sus co-ocurrencias de segundo orden que está significativamente sesgada hacia ciertos otros sintagmas nominales. Por lo tanto, se supone que en una red de co-ocurrencia de sintagmas nominales con una gran relevancia se agrupan en grupos, racimos o clusters, donde cada grupo puede ser visto como un tema.

Visualización de los resultados de los mapas y la agrupación en clusters. VOSviewer ofrece varios tipos de visualizaciones. El programa dispone de funciones de acercamiento (zoom), desplazamiento (scroll), y búsqueda de términos o expresiones para facilitar un examen detallado de un mapa.

Fig. 3 Interfaz de Pajek El software Vosviewer incluye una amplia funcionalidad de minería de texto la cual proporciona soporte para la creación de mapas (en forma de grafos) a partir de un corpus de documentos. Un mapa de términos de dos dimensiones, es uno en el que los términos se encuentran de tal manera que la distancia entre dos de ellos pueden ser interpretados como una indicación de la intensidad de la relación entre ambos. En general, cuanto menor es la distancia entre dos términos, más fuerte es la relación entre ellos. El tamaño del nodo en cada mapa representa la frecuencia de aparición del mismo en el texto fuente. La relación de los términos se determina sobre la base de coocurrencias en los documentos [5], [9].

Fig. 4 Interfaz de Vosviewer

Estos documentos pueden ser por ejemplo las publicaciones científicas (ya sean títulos de un artículo y resúmenes (abstracts) o textos completos), patentes o artículos periodísticos. Vosviewer únicamente puede manejar documentos del idioma inglés para generar mapas a partir de párrafos de texto. Para crear un mapa basado en texto, Vosviewer emplea las siguientes estrategias:

3. RESULTADOS Se experimentó con dos conjuntos de datos: el primero perteneciente a una base de datos sobre investigación mexicana en bibliotecología y ciencias de la información y otro sobre un conjunto de referencias bibliográficas sobre investigación mexicana sobre cáncer obtenida directamente de la Web of Science, de publicaciones científicas de alto impacto a nivel mundial.

Se identifican secuencias de palabras que se componen exclusivamente de sustantivos y adjetivos y que terminan con un sustantivo (por ejemplo, paper, visualization, interesting result, and text mining, pero no degrees of freedom and highly cited). Por último, se convierten las frases nominales en plural a frases nominales en singular.

Respecto a la investigación mexicana sobre bibliotecología y ciencias de la información [6] los registros bibliográficos fueron exportados a un formato manejable por Bibexcel para obtener datos tabulares, como frecuencias de aparición de autores y de revistas, co-ocurrencia de autores y de términos provenientes de los campos de título y descriptores.

Los sintagmas nominales seleccionados se denominan términos. La esencia de esta técnica es la siguiente: se determina la distribución de co-ocurrencia (de segundo orden) sobre todos los sintagmas nominales. Intuitivamente, la idea es que los sintagmas nominales con una relevancia baja (o sintagmas nominales con un sentido general), tal como paper, interesting result, new, tienen más o menos una distribución equitativa de sus co-ocurrencias (de segundo orden).

A partir de los datos tabulares de autores, campo título y descriptor se construyeron redes de: coautoría y co-términos para ser visualizadas por Pajek y Vosviewer. A continuación des presentan algunas redes correspondientes a la base de datos sobre la investigación mexicana mencionada:

Por otro lado, frases nominales con una alta relevancia (o sintagmas nominales con un significado específico), como visualization, text minning y natural language processing, tienen 16

Tlamati, Número Especial 3 CICOM 2014

Fig. 5 Red de coautoría de uno de los autores de mayor productividad en bibliotecología y ciencias de la información (Pajek).

Fig. 8 Red de co-descriptores de los artículos publicados por J. Licea de Arenas en el periodo estudiado (Pajek). En una segunda etapa Se llevó a cabo una búsqueda de información bibliográfica en Thomson Reuters Web of Knowledge [13] (antes ISI Web of Knowledge) la cual es una plataforma de investigación que provee de servicios para encontrar, analizar y compartir información bibliográfica en las ciencias naturales y físicas, ciencias sociales, artes y humanidades aparecidas en las revistas de más alto impacto internacional. A partir de esta consulta se recuperaron los registros bibliográficos referentes al tema de investigación relacionada con el cáncer existentes en las bases de datos Science Citation Index SCI, Social Science Citation Index SSCI y los Conference Proceedings de ciencia como de ciencias sociales CPCI-S, CPCI-SSH respectivamente en el mes de Julio de 2012.

Fig. 6 Red de coautoría de autores con una productividad mayor a 11 artículos en el periodo estudiado (Pajek). Se hace notar que la tendencia observada en este campo es la producción de artículos por parte de un solo autor, siendo escasos los trabajos en colaboración, entendiéndose que la coautoría es la firma conjunta de un trabajo por dos o más autores y, en el caso de instituciones, se trata de colaboración institucional.

El periodo de búsqueda abarcó desde 1977 al 2012 de los trabajos sobre cáncer realizados por al menos un autor con institución de adscripción en México. La sintaxis de búsqueda fue la siguiente: AND Address=("Mexico") NOT ResultsTopic=("cancer" Address=("New Mexico") NOT Address=("Hospital Mexico") Timespan=All Years. Databases=SCI-EXPANDED, SSCI, CPCI-S, CPCI-SSH. Lemmatization=Off Se utilizó la llave de recuperación Topic que permite recuperar términos de los campos: título, resumen y descriptores. Los términos se entrecomillaron para recuperar exactamente las expresiones requeridas y se desactivó la propiedad de lematización (la lematización activada recupera información de variaciones de las raíces de los términos o palabras utilizadas en la búsqueda).

Fig. 7 Red de co-descriptores de los artículos publicados R. M. Fernández de Zamora en el periodo estudiado (Pajek).

A partir de la búsqueda anterior se recuperaron 2688 registros sobre cáncer. Los registros se descargaron en formato plain text, 17

Tlamati, Número Especial 3 CICOM 2014 mismo que permitió ser procesado por el software Bibexcel para generar datos tabulares del campo resumen.

cell, activity, assay, detection, concentration, tissue, change, hpv, decrease, drug, dna, gene, human, papillomavirus, inhibition, lymphocyte, significant increase, sensitivity, expression, enzyme, contrast, serum, human, specificity, present study, right, compound, respect.

Posteriormente se utilizó el software Vosviewer para generar mapas temáticos a partir del campo resumen. Este software es una aplicación de minería de datos desarrollado en el Centre for Science and Technology Studies (CWTS) de Leiden University, The Netherlands, para la construcción y visualización de mapas que se denominan bibliométricos. Los mapas bibliométricos generados con VOSviewer ofrecen una detallada representación tridimensional de la estructura de las relaciones entre campos o temas.

Estos términos indican estudios relacionados con la genética, la inmunología, la virología y las investigaciones sobre las bases moleculares del comportamiento de las células cancerígenas. El cluster 2 de la Figura 9 contiene los términos:

Además, estos mapas bibliométricos pueden proporcionar una perspectiva dinámica en el ámbito científico, revelan tendencias, como la frecuente atención a un tema, o la convergencia de las corrientes de investigación diferentes. En los mapas generados por Vosiewer, entre más fuerte es la asociación entre dos conceptos, más pequeña es la distancia entre ellos [13] [14].

treatment, month, response, survival, surgery, therapy, dose, day, female, range, chemotherapy, week, male, recurrence, toxicity, January, radiotherapy, mean age, median, material, administration, procedure, december, combination, efficacy, year survival, series Estos términos indican los aspectos relacionados con el tratamiento clínico de la enfermedad.

Se presenta un mapa generado con Vosviewer a partir del campo resumen de los registros bibliográficos recuperados de los registros bibliográficos de la investigación mexicana sobre cáncer.

El cluster 3 de la Figura 9 presenta los términos siguientes: year, risk, association, case control study, risk factor, information, history, trend, exposure, relation, confidence interval, odds ratio, subject, duration, program, relative risk, state, oral contraceptive, gastric cancer, hypothesis, invasive cervical, cancer, sex, diet, health, high risk

Para observar los temas de interés asociados a la investigación sobre el cáncer, se generó un mapa temático a partir del campo resumen para el periodo: 1977-1999. Por razones de espacio solo se presenta la información de los temas más relevantes extraídos de los mapas de dichos periodos.

En lo referente al cluster 3 de la Figura 9, el conjunto de términos indican estudios epidemiológicos y de investigaciones especializadas donde se aplican los métodos estadísticos.

En el mapa de la Figura 9 se observan tres subconjuntos (racimos o clusters) de los términos relevantes obtenidos del corpus de texto del campo resumen de los registros bibliográficos existentes en la base de datos de Thomson Reuters referentes a la investigación mexicana sobre cáncer en el periodo 1977-1999.

4.Conclusiones Se considera que el tratamiento dado a la información de los registros bibliográficos tanto de la investigación mexicana sobre bibliotecología y ciencias de la información así como de los correspondientes a la base de datos de la Web of Science sobre cáncer con Bibexcel Pajek y VOSviewer permite hacer un primer acercamiento metodológico para abordar el estudio de la productividad y de la investigación científica de los autores y de las instituciones del estado de Guerrero con el fin de conocer las tendencias temáticas, las redes de colaboración existentes para contar con un panorama de la ciencia guerrerense. Es factible, que con estos mapas, en una etapa posterior, se pueda trabajar con equipos interdisciplinarios para analizar y evaluar con mayor precisión los cambios que permitan detectar la aparición de nuevas disciplinas, su especialización y la diversificación de las mismas, así como el nacimiento de nuevos campos de conocimiento en el quehacer de la investigación científica.

Fig. 9 Visualización del mapa temático (generado por Vosviewer) basado en el campo resumen de los registros bibliográficos de la investigación mexicana sobre cáncer (1977-1999).

Mediante la inspección y el análisis de estos conjuntos de términos los especialistas pueden descubrir las tendencias temáticas de las investigaciones que se muestran estrechamente relacionadas entre sí.

En el cluster 1 de la Figura 9 se encuentran los siguientes términos:

Es importante que un mapa, sobre todo de un campo de dominio de la ciencia sea tan preciso como sea posible. Esto se debe a que 18

Tlamati, Número Especial 3 CICOM 2014 en muchos casos, estos estudios sirven para respaldar la toma de decisiones dentro del contexto de una planificación nacional de la ciencia y la tecnología. Desde luego, que la utilización de mapas de la ciencia deben considerarse como un elemento más, que puede puede asociarse con otros procesos para evaluar la actividad científica y la asignación de recursos a la misma.

[7]Leydesdorff, Loet. 2001. The challenge of scientometrics: the development, mesurement and self-organization of scientific communications. USA, Universal Publishers. [8]Pajek [en línea] disponible en http://www8.umu.se/inforsk/Bibexcel/ [Consultado el 23 de marzo 2012]

5. REFERENCIAS

[9]Peters, H. P. F., Van Raan, A. F. J. 1993. Co-word-based science maps of chemical engineering, Part I: Representations by direct multidimensional scaling, Research Policy, vol. 22, num. 1, pp. 23–45.

[1] Atkins, S.E. 1988. Subject trends in library and Information Science Research, 1975-1984, Library Trends, vol. 36 (Spring) pp. 633-658. [2]BIBEXCEL [en línea] http://www8.umu.se/inforsk/Bibexcel/ marzo 2012]

[10]Ruiz León, Alejandro Arnulfo. Identificación de comunidades científicas institucionales. 2014. XIII Congreso Internacional de Información INFO´2014. La Habana, Cuba.

disponible en [Consultado 23 de

[11]Sci Tech Strategies, consultado en: (Consultado el 24 de junio de 2012)

[3]Börner, K., Chen, C., Boyack, K. W. 2003. Visualizing knowledge domains, Annual Review of Information Science and Technology, vol. 37, pp. 179–255.

[12]Solla Price, D. de. 1965. Networks of scientific papers, Science num. 149, pp.510-515.

[4]Boyack, Kevin W., Klavans, Richard, Börner, Katy.2005. Mapping the backbone of science, Scientometrics, vol. 64, num. 3, pp. 351-374.

[13]Thomson Reuters. Web of Knowledge. 2014, Consultado en: Thomson Reuters (2014) [Consultado el 1de Mayo de 2014]

[5]Callon, M., Law, J.1983. From translations to problematic networks: an introduction to co-word analysis, Social Science Information, vol. 22, pp. 191-235.

[14]Van Eck, Nees Jan, Waltman, Ludo. 2010. Software survey: VOSviewer, a computer program for bibliometric mapping, Scientometrics, vol 84, pp. 523–538.

[6]Herrera Miranda, I. 2012. Cincuenta años de publicaciones mexicanas en Bibliotecología, Ciencias de la información y Documentación: 1956-2006. Inédito Tesis de doctorado, Facultad de Comunicación y Documentación, Murcia, España.

[15]VOSviewer [en línea] Disponible en [Consultado el 15 de octubre de 2012]

19

Tlamati, Número Especial 3 CICOM 2014

Desarrollo de aplicaciones moviles como apoyo al proceso educativo Carlos Alberto Vanegas Universidad Distrital F.J.C. Bogotá, Colombia

[emailprotected] du.co

Rocío Rodríguez Guerrero Universidad Distrital F.J.C. Bogotá, Colombia

[emailprotected] du.co

Sonia Pinzón Universidad Distrital F.J.C. Bogotá, Colombia

[emailprotected] .co

RESUMEN Keywords: Mobile Device, teaching, Mobile learning, TIC.

En los últimos años el uso de los dispositivos móviles ha aumentado, su bajo costo, tamaño compacto y portátil permite que se pueda llevar a cualquier lugar y ofreciendo la posibilidad de estar conectados en todo momento a internet, por lo que se han convertido en una herramienta que permite una amplia gama de servicios, que pueden incluir la enseñanza y el aprendizaje. Este artículo muestra el desarrollo de una aplicación móvil educativa para apoyar el aprendizaje de la multiplicación.

1. INTRODUCCIÓN

En la actualidad las Tecnología de la Información TIC viven su mayor auge, incorporándose en todo ámbito, trabajo, hogar, educación, etc., la tecnología móvil se ha convertido en una herramienta muy común, que ofrecen una amplia gama de servicios, la integración de estos dispositivos en educación, se vislumbra como una oportunidad de apoyar a la educación tradicional, a través de las nuevas metodologías de enseñanza [2], sin embargo son muy pocos los docentes que utilizan este tipo de herramientas para fomentar un cambio en su sistema educacional [3].

Palabras claves: Dispositivos móviles, enseñanza, aprendizaje móvil, TIC.

ABSTRACT In recent years the use of mobile devices has increased, low cost, compact and portable size allows it to be carried anywhere and offering the ability to stay connected to the Internet at all times, so they have become a tool to a wide range of services, which may include teaching and learning. This article shows the development of an educational mobile application to support learning of multiplication.

2. CONCEPTUALIZACIÓN El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

2.1 Aprendizaje a través de Dispositivos Móviles Mobile learning

El aprendizaje móvil es un paradigma emergente en un estado de intenso desarrollo impulsado por la confluencia de tres corrientes tecnológicas, poder de cómputo, comunicación y el desarrollo de interfaces de usuario inteligente [4]. La motivación básica de esta nueva disciplina se basa en producir

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

20

Tlamati, Número Especial 3 CICOM 2014

utilizados en el mundo en el año 20131. Apple aparece con el 55% en primer lugar. En segundo se encuentra Android con 33%, después, muy de lejos, Java ME con 5%, Symbian con 3%, Blackberry y Kindle con el 2% y 1% respectivamente.

experiencias educativas en diferente lugar, situación y momento, introduciendo procesos educativos a una nueva dimensión, que permite fortalecer el aprendizaje apoyado de la movilidad y con gran interactividad. Entre las ventajas más relevantes se encuentran [7]: •

Mayor libertad y flexibilidad de aprendizaje. Disponible las 24 horas.

Utilización de juegos de apoyo en el proceso de formación.

Independencia tecnológica de los contenidos.

“Just in time, just for me”: lo que el estudiante quiere, cuando el estudiante lo quiere.

Navegación sencilla y adaptación de contenidos teniendo en cuenta la navegabilidad, el procesador y la velocidad de conexión de estos dispositivos.

Figura 1 Telefonía móvil por estrato en Colombia. Fuente: Encuesta Comunicación Colombia 2012. Nuevas Tecnologías de comunicación. Boletín de prensa. Universidad externado de Colombia Bogotá, noviembre 21 de 2012.

2.2 Dispositivos Móviles en Colombia

Colombia alcanzó un total 47.313.686 abonados en servicio móvil al finalizar el segundo trimestre de 2013. De acuerdo con la cifra alcanzada a 30 de junio de 2013, en el país existen 100,4 abonados en servicio por cada 100 habitantes [1], las cifras indican la gran aceptación de este tipo de dispositivos, los cuales además de utilizarse para la comunicación, se están utilizando para los negocios y la educación.

Figura 2. Ranking Sistemas Operativos para Móviles Fuente: http://www.netmarketshare.com/

En la telefonía móvil también se presentan desigualdades por estrato en Colombia: mientras el 100% de la población en el 2012 de estrato 6 tiene celular, el 77% en estrato 1 lo tiene [5], la figura 1 también permite evidenciar que la población con un estrato inferior presenta un alto índice de acceso a un dispositivo móvil, el cual le permitirá acceder a conocimiento al que antes no tenía acceso.

2.3 Caso Práctico – Aplicación Móvil para el apoyo en la comprensión de la multiplicación de números enteros [6].

El desarrollo de esta aplicación de carácter educativo se inició identificando la necesidad de apoyar a las personas en su proceso de aprendizaje específicamente en el ámbito de la multiplicación, orientada a dispositivos con sistema operativo Android, ya que esta plataforma además de ser una

2.2.1. Sistemas Operativos para Móviles En la figura 2 se puede observar la gráfica comparativa de los Sistemas Operativos (SO)

1

Datos

recogidos

http://www.netmarketshare.com/

21

en

Netmarketshare.

Tlamati, Número Especial 3 CICOM 2014

de las más populares y usadas, es de fácil acceso y manejo, su éxito radica no solo en que es abierto sino que está presente en dispositivos de todas las gamas, desde la más básica hasta aquella con las últimas características del mercado, permitiendo el acceso a personas de cualquier nivel social.

3. DISEÑO E IMPLEMENTACION

La figura 4 describe el modelo lógico para generar la persistencia de la aplicación móvil, este modelo es independientemente del modo en que se implante físicamente.

La aplicación se desarrolló utilizando el lenguaje de programación Java y SqlLite como repositorio de información. 2.4 Análisis del Sistema

Se identificó que las aplicaciones móviles de matemáticas para Android, hacían uso de una metodología de aprendizaje que se basa en el repaso de las tablas de multiplicar, buscando que el usuario las memorice. Por ello se planteó desarrollar una aplicación que permitiera al usuario aprendiz ejecutar prácticas acompañado de un subsistema de retroalimentación que le permitiera percibir aciertos y debilidades con el fin de mejorar en su proceso de formación (ver figura 2). Se incorporó el subsistema de Teoría y Ayuda que explica de manera gráfica el proceso de la suma abreviada.

Figura 3. Diagrama de Componentes del Sistema Fuente: Rodríguez R, Bustos O, Martínez J, Aplicación móvil para dispositivos con sistema operativo Android, como apoyo en la comprensión de la multiplicación de números enteros. Universidad Distrital F.J.C. 2013.

Figura 4. Modelo lógico de la Aplicación Fuente: Rodríguez R, Bustos O, Martínez J, Aplicación móvil para dispositivos con sistema operativo Android, como apoyo en la comprensión de la multiplicación de números enteros. Universidad Distrital F.J.C. 2013.

4. RESULTADOS OBTENIDOS Figura 2. Modelo de Casos de Uso Fuente: Rodríguez R, Bustos O, Martínez J, Aplicación móvil para dispositivos con sistema operativo Android, como apoyo en la comprensión de la multiplicación de números enteros. Universidad Distrital F.J.C. 2013.

La muestra población (niños de 8 a 10 de edad) que ejecuto la aplicación evidencio que practicaba y aprendía de manera interactiva y la podían ejecutar en cualquier momento. Añadieron la posibilidad de aumentar los ejercicios y la variedad de colores cuya afinidad resultara ser más atractiva. La integración del kit de desarrollo de software (SDK) de Android con el lenguaje de programación Java es una buena práctica para el desarrollo de aplicaciones para dispositivos móviles que tengan este sistema operativo;

2.5 Arquitectura

La Figura 3 representa los componentes de la aplicación móvil desarrollada y las dependencias entre estos componentes, la estación de trabajo determina el dispositivo móvil en el cual la aplicación se ejecutará. 22

Tlamati, Número Especial 3 CICOM 2014

[3] Camacho, Mar. Lara Tíscar. M-learning, en España, Portugal y América Latina. Monográfico SCOPEO n° 3, 2011. p. 144.

además son de uso libre, multiplataforma, orientado a objetos y de fácil manejo para el usuario final. CONCLUSIONES

[4] Sharples, M. (2002). Disruptive devices: mobile technology for conversational learning. International Journal of Continuing Engineering Education and Life Long Learning, 12(5/6), 504-520

Este tipo de aplicaciones son de gran ayuda para mejorar los conocimientos sobre diferentes temáticas educativas ya que proporcionan una interfaz agradable para el usuario y representan una manera interactiva de estudio.

[5]. Encuesta Comunicación Colombia 2012. Nuevas tecnologías de comunicación. Boletín de prensa. Universidad externado de Colombia Bogotá, noviembre 21 de 2012. http://www.uexternado.edu.co/pdf/boletinprensatics.pdf

El diseño y estructura de una interfaz son de vital importancia a la hora de crear una aplicación, puesto que esta es con la que el usuario final interactúa y debe ser tanto llamativa como de fácil manejo para el mismo. REFERENCIAS

[6] Rodríguez R, Bustos O, Martinez J. Aplicación móvil para dispositivos con sistema operativo Android, como apoyo en la comprensión de la multiplicación de números enteros. Universidad Distrital F.J.C. 2013.

[1] Boletín Trimestral de las TIC 2013. Ministerio de Tecnologías de la Información y las Comunicaciones República de Colombia www.mintic.gov.co.

[7] Winter, N. (2006) What is mobile learning? In M. Sharples (Ed.) Big issues in mobile learning (pp. 5-9). Report of a workshop by the Kaleidoscope Network of Excellence Mobile Learning Initiative, University of Nottingham, UK. Retrieved from http://matchsz.inf.elte.hu/tt/docs/Sharples-20062.pdf

[2] COBO Romaní, Cristóbal y Moravec, John W. Aprendizaje invisible. Hacia una nueva ecología de la educación. Barcelona : COL-LECCIÒ TRANSMEDIA XXI. Laboratori de mitjans Interactius / Publicacions i Edicions de la Univerdsitat de Barcelona. 2011. p. 28.

23

Tlamati, Número Especial 3 CICOM 2014

Los centros de cómputo en la Ciudad de Chilpancingo de los Bravo, Guerrero. Valentín Álvarez Hilario

Carlos Bustamante Araujo

Severino Feliciano Morales

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero; México.

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero; México.

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero; México.

[emailprotected]

[emailprotected]

[emailprotected]

RESUMEN

Aplica a todo tipo de organizaciones.

El presente trabajo de investigación consiste en mostrar los resultados obtenidos de las encuestas aplicadas a los administradores de los centros de cómputo en la Cd. De Chilpancingo en sus diferentes ámbitos gubernamentales, en el software estadístico SPSS para poder conocer su funcionamiento dentro de la dependencia y comparar los resultados con el manual de referencia.

Aplica a administradores en todos los niveles organizacionales. Los administradores buscan generar un superávit. La administración persigue la productividad (eficacia y eficiencia.

1.1.2 Centros de cómputo

Palabras Clave

Un Centro de Cómputo, también denominado Centro de Datos de Misión Crítica es una entidad, oficina o departamento que se encarga del procesamiento de datos e información de forma sistematizada. El procesamiento se lleva a cabo con la utilización de computadoras que están equipadas con el hardware y el software necesario para cumplir con dicha tarea.

Otra definición de los Centros de Cómputo hace referencia a la unidad que se encarga del diseño y la implementación de sistemas dentro de una empresa. En este caso, se trata de un área cuya finalidad es facilitar el trabajo del resto de las dependencias. La capacitación de los usuarios, el mantenimiento de los equipos informáticos y el desarrollo de estudios de factibilidad se encuentran entre sus misiones.

Centros de cómputo, investigación, dependencias, análisis, administración, estadística, resultados, variables.

1. INTRODUCCIÓN 1.1 Definiciones 1.1.1 Administración Es el proceso de diseñar y mantener un entorno en el que, trabajando en grupos, los individuos cumplan eficientemente objetivos específicos. La administración implica planear, organizar, integrar personal, dirigir y controlar.

2. ANTECEDENTES El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

2.1 Historia de los Centros de Cómputo México entró en la época de la computación electrónica en un momento en que Estados Unidos y otros países desarrollados encontraron la forma fácil de hacer negocio dentro del entorno del procesamiento electrónico de datos en los países tecnológicamente atrasados. Sin embargo, México no contaba con personal preparado y capacitado para poder recibir y entender la tecnología que estos países comercializaban, mucho menos para explotarla metódicamente.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

24

Tlamati, Número Especial 3 CICOM 2014 Se obtuvo con plena falta de experiencia, dicho de otra manera. Se tomó lo importado como una verdad, única y absoluta, mientras los países exportadores de esta tecnología seguían trabajando y desarrollando conceptos y técnicas más avanzadas.

Antes se hizo referencia a que de todos los centros de cómputo que en un principio se consideraron para encuestarlos sólo una fracción de ellos pudo ser encuestados debido a las situaciones antes mencionadas.

A inicios de los años setenta, en Estados Unidos se duplicó el personal de informática, en Japón se quintuplicó. En México solo aumentó un 60% el cual no fue suficiente para alcanzar el ritmo de crecimiento del número de instalaciones.

Dependencias encuestadas A continuación se muestra el listado de las dependencias que si contestaron la encuesta.

Además, en ese entonces la tendencia era aumentar el tamaño y la capacidad de las computadoras, pero no se aumentó el número de técnicos especializados. No se tuvo la capacidad para absorber nuevos conceptos, aplicaciones, sistemas avanzados ni nuevos lenguajes de programación, y por lo tanto el desarrollo informático volvió a estancarse por años.

• • • •

Por eso formamos vicios, ya que sin contar con buenas directrices, se improvisaba y se tomaba como procedimiento único y verdadero.

• • • • • • • • • • • • •

Al inicio de la década de los setenta empezaron a surgir algunos profesionales en informática. Para entonces comenzaba a percibirse la diferencia entre un improvisado y un profesional. Se comenzaba a entender que cuando se contrataba a un profesional se tenía la garantía de su labor.[1]

3. UNIVERSO DE LOS CENTROS DE CÓMPUTO 3.1 Ubicación del universo de la población objetivo Para determinar el tamaño de muestra se utilizó la muestra no probabilística, concretamente el muestreo intencional debido a que la población objetivo es relativamente pequeña y prácticamente no tiene caso el que se reduzca aún más tomando sólo una muestra.

Una de las razones que influyó para tomar esta decisión fue que no todos los encargados de los centros de cómputo se prestaron para contestar el cuestionario, otros simplemente no pudieron y algunos más simplemente no estaban disponibles.

• • •

Algunos motivos fueron los siguientes:

o

Falta de tiempo para contestar la encuesta.

o

Desconfianza en cuanto al uso que se le pudiera dar a la información proporcionada.

o

No había ningún encargado que pudiera contestar el cuestionario

o

Por políticas de seguridad propias de la institución.

o

Algunos acordaron contestar el cuestionario, pero jamás lo devolvieron.

• • • • • • •

Con lo cual se reducía drásticamente nuestra población objetivo, y si se dividía más por efecto de seleccionar una pequeña muestra los resultados podrían haberse visto comprometidos debido a su diminuto tamaño.

25

Procuraduría General de la Republica Comisión Nacional del Agua Instituto del Deporte de Guerrero Coordinación General de los Programas Sociales "Guerrero Cumple" Secretaria de Desarrollo Social Federal Comisión Nacional Forestal Sistema para el Desarrollo Integral de la Familia Contraloría General de Estado Unidad Académica de Ingeniería Unidad Académica Preparatoria Abierta Unidad Académica de Arquitectura y Urbanismo Unidad Académica Preparatoria # 9 Unidad Académica de Filosofía y Letras Unidad Académica de Enfermería # 9 Unidad Académica de Matemáticas Unidad Académica de Economía Unidad Académica de Ciencias Químicas Biológicas Unidad Académica de Ciencias de la Comunicación Unidad Académica de Derecho Comisión de Derechos Humanos Instituto de Seguridad Social de los Servidores Públicos del Estado de Guerrero (ISSSPEG) 8ISSPEG) Secretaría de medio ambiente y recursos naturales Comité de Planeación para el Desarrollo del Estado de Guerrero (COPLADEG) Comisión de agua potable y alcantarillado y saneamiento del estado de guerrero Secretaría de la Juventud Comisión de Infraestructura Carretera y Aeroportuaria del Estado de Guerrero Procuraduría General de Justicia del Estado Consejería jurídica del poder ejecutivo Colegio de Educación Profesional Técnica (CONALEP)

Tlamati, Número Especial 3 CICOM 2014

a)

Colegio de Ciencia, Tecnología e Innovación del Estado de Guerrero.

Vista de datos. Las filas son casos. Las columnas son variables. Las casillas contienen valores

4. METODOLOGÍA PARA LA INVESTIGACIÓN DE CAMPO

El archivo de datos es rectangular.

Uno de los primeros procedimientos estadísticos que el investigador o administrador debe realizar es la descripción de los datos y la identificación de patrones básicos de los mismos, para ello se requiere de un programa estadístico que contenga diversos procedimientos que pueden utilizarse para tal efecto. (Castañeda, 2010)

b)

Vista de variables. Las filas son variables. Las columnas variables.

son

atributos de las

4.4 Datos y variables Desde el punto de vista estadístico vamos a distinguir cuatro niveles de medida de las variables:

Para ello con el fin de lograr los objetivos planteados de esta tesis, se recolecto toda la información obtenida mediante las encuestas realizadas a los responsables de los centros de cómputo o quienes estuvieron a cargo de ellos y se capturaron en el programa IBM SPSS Statistics versión 20.0 para su análisis e interpretación.

1.

Nominal. Cada valor de la variable nominal se corresponde con una categoría de la variable.

2.

Ordinal. Cada valor representa la ordenación.

4.1 Software para el registro de la encuesta

3.

Es uno de los programas de mayor uso en los Estados Unidos de Norteamérica así como en América Latina; también muy usado en las ciencias sociales y las empresas de investigación de mercado. (Castañeda, 2010)

Intervalo. un incremento de una unidad en el valor numérico representa el mismo cambio en la magnitud medida.

4.

Razón. además tienen un punto cero significativo, dicho punto representa una ausencia completa de la característica medida

En la versión 12 de SPSS se podían realizar análisis con 2 millones de registros y 250.000 variables. El programa consiste en un módulo base y módulos anexos que se han ido actualizando constantemente con nuevos procedimientos estadísticos. Es una potente aplicación de análisis estadísticos de datos, dotada de una intuitiva interfaz gráfica que resulta muy fácil de manejar. (Wikipedia, 2012)

Las variables de razón tienen propiedades más fuertes que las de intervalo. Desde el punto de vista representación de datos en la aplicación SPSS, vamos a distinguir únicamente dos tipos de variables que son:

4.2 ¿En que consiste el Programa SPSS?

Variables numéricas: Se representan como números, independientemente de su nivel de medida.

Sirve para realizar proyecciones y análisis de tendencias las cuales permitirán planificar actividades a largo plazo y en general, hacer un mejor uso de la información capturada en forma electrónica.

Variables alfanuméricas: Están compuestas por combinaciones de números y letras. El sistema permite definir una serie de características a las variables. Las más importantes son las siguientes:

Facilita crear un archivo de datos en una forma estructurada y también organizar una base de datos que puede ser analizada con diversas técnicas estadísticas. (Castañeda, 2010)

o

Etiquetas de las variables: Es una cadena de caracteres asociada al nombre de las variables, con el fin de generar resultados más comprensivos.

o

Etiquetas a los valores de las variables: Cuando estamos ante una variable categórica o nominal es usual el asignar una etiqueta a cada categoría, por ejemplo en la variable sexo, si el valor 1 representa a los hombres y el valor 2 representa a las mujeres.

o

Valores Perdidos: Los valores perdidos son razones por las cuales no obtenemos una respuesta coherente de algún entrevistado.

4.3 Editor de datos El editor de datos proporciona un método práctico para la creación y edición de archivos de datos. La ventana editor de datos se abre automáticamente cuando se inicia una sesión y podemos encontrar los siguientes tipos de vistas. Vista de datos: Muestra los valores de datos reales o las etiquetas de valor definidas. Vista de variables: Muchas de las funciones de la Vista de datos son similares a las que se encuentran en aplicaciones de hojas de cálculo. Sin embargo, existen varias diferencias importantes:

4.5 Creación de la base de datos. 26

Tlamati, Número Especial 3 CICOM 2014 Nos aseguramos de que el programa este previamente instalado en nuestra computadoras y nos dirigimos a ejecutarlo para poder iniciar nuestra base de datos en blanco, seleccionando la opción “Introducir los datos”.

Administración _de _BD: ¿Realiza Administración de BD en el cc? Soporte _Técnico: ¿Realiza Soporte Técnico en el cc? Administración_ de _Aplicaciones _WEB”: ¿Realiza Administración de aplicaciones web en el cc?

4.6 Documentación de los datos Una vez creada la base de datos empezaremos a documentar las variables en la opción “Vista de variables” localizada en la parte inferior izquierda de la pantalla.

Desarrollo _de _Sistemas”: ¿Realiza Desarrollo de Sistemas en el centro de cómputo?

Ahora bien mostraremos como hacer la documentación con alguna de las preguntas principales de la unidad I y su respectiva interpretación de las variables.

Soporte a las Aplicaciones de la Empresa: ¿Realiza Soporte a las aplicaciones de la Empresa en el centro de cómputo?

Ejemplo: pregunta a documentar. Otro: ¿Que otra función realiza en el centro de cómputo?

4.7 Planeación. Organización e Instalación de Centros de Cómputo

A continuación mostraremos los tipos de estadísticas que se pueden llevar a cabo para analizar los datos.

1.- ¿Cuáles son las funciones que realiza en el CC? •

Captura de datos

Administración de Base de Datos

Dependiendo del tipo de variable, podemos seleccionar entre los procedimientos “frecuencias” o “descriptivos”.

Soporte Técnico

4.8 Estadística de frecuencia.

Administración de Aplicaciones WEB

Desarrollo de Sistemas

Soporte a las aplicaciones de la empresa

El primer procedimiento (frecuencias) se utiliza cuando sus variables son categóricas o nominales, por ejemplo, la variable “género”, que contiene solamente dos categorías (masculino y femenino).

Otro (por favor, especifique)_________

4.9 Estadística descriptiva. El segundo procedimiento (descriptivos) se utiliza cuando sus variables son de naturaleza continua como la variable “promedio de calificaciones”.

Para poder llevar a cabo la documentación de las preguntas, cada respuesta se convierte en una variable para su análisis respectivo.

4.10 Tablas de contingencia bidimensionales. La tabla de contingencia es una tabla de doble entrada, donde en cada casilla figurará el número de casos o individuos que poseen un nivel de uno de los factores o características analizadas y otro nivel del otro factor analizado.

Las variables tienen nombre genérico como por ejemplo: (VAR0007, VAR0008, VAR0009, VAR00010, VAR0011, VAR0012, VAR0013). Así que, sustituiremos las variables por cada una de las respuestas de la pregunta. VAR00007,

Las tablas de contingencia tienen dos objetivos fundamentales:

sustituya este nombre por “Captura _de _Datos”.

1.

VAR00008, sustituya este nombre por “Administración _de _BD”. VAR00009,

sustituya este nombre por “Soporte _técnico”.

VAR000010, sustituya este nombre por “Administración_ de _Aplicaciones _Web”.

2.

VAR000011, sustituya este nombre por “Soporte_ a_ las _aplicaciones_ de _la_ empresa”. VAR000012, sustituya este nombre por “Desarrollo _de _Sistemas”.

Organizar la información contenida en un experimento cuando ésta es de carácter bidimensional, es decir, cuando está referida a dos factores (variables cualitativas). (Otero, 2005) A partir de la tabla de contingencia se puede además analizar si existe alguna relación de dependencia o independencia entre los niveles de las variables cualitativas objeto de estudio.

Los fenómenos aleatorios se pueden representar mediante dos tipos de variables estadísticas: (Pino, 2005)

VAR000013, sustituya este nombre por “Otro”. (Castañeda, 2010). Además para poder identificar las variables pondremos etiquetas que quedaran como una pregunta referida a la respuesta como se muestra a continuación.

Cuantitativas: Aquellas cuyos posibles valores son numéricos, por ejemplo, la estatura, el peso, la edad, la temperatura, etc.

Captura_de_Datos: ¿Realiza Captura de Datos en el CC?

Cualitativas: Aquellas cuyos valores son un conjunto de cualidades no numéricas a las que se les suele llamar categorías, modalidades o niveles, por ejemplo, el sexo (mujer, hombre). 27

Tlamati, Número Especial 3 CICOM 2014 37.- ¿Utiliza alguna metodología para el respaldo de la información?

4.10 Análisis Univariado. Al realizar un análisis univariado nos concentramos en cada variable de modo independiente. Usualmente trabajamos con distribuciones de frecuencias, medidas de tendencia central y medidas de dispersión.

UNIDAD IV. CENTRO DE ATENCION A CLIENTES (HELP DESK)

47.- ¿Cuenta con un centro de atención a clientes (Help Desk)? 48.- ¿Qué tipo de asesoría ofrece a los usuarios en el área (Help Desk)?

4.11 Distribución de frecuencias. La distribución de frecuencias nos indica el número de casos que hay en cada categoría de la variable.

V. SERVICIOS DE CONSULTORÍA Y SOPORTE TÉCNICO

52.- ¿Ha tenido necesidad de contratar una consultoría para el desarrollo de sus actividades o proyectos?

Al aplicar el análisis univariado con distribución de frecuencias, y enfocándonos en las preguntas que conformaron el cuestionario, se hizo un análisis general con cada una de las 67 preguntas del primer análisis arrojado.

5. RESULTADOS DEL ANALISIS.

4.12 Análisis Bivariado. El análisis bivariado enfrenta a cada una de las variables independientes con la dependiente, por separado.Es decir se utilizan para estudiar cómo una variable influye en la otra.

Después de haber obtenido un previo análisis de los resultados de la investigación de las preguntas más relevantes, se procedió hacer un cruce de preguntas de estas mismas con otras preguntas de la encuesta.

El análisis univariado tiene cuatros usos fundamentales:

1. 2.

3. 4.

Los resultados que se obtendrán a continuación serán de comparar una pregunta con otra, y poder ir verificando y comprobando cada uno de los objetivos de la investigación.

Establecer la asociación entre dos variables (explicar una característica en base a otra. Realizar la comparación de una variable entre grupos (independientes o relacionados) conformados en base a una segunda variable. Consiste en realizar un tratamiento estadístico a dos variables de manera simultánea. Por ejemplo: sexo femenino y estar casada. Cuando decimos que hay 140 mujeres casadas, hemos hecho un recuento bivariado.

5.1 Cruce de información de variables 1.

Se dedujo que el 96.7% utiliza bitácoras y 3.3 % no. De los 46.7 % responsables con el perfil de ingeniero en sistemas en computación o afín, utilizan bitácoras, 26.7 % con licenciatura en informática también las utiliza, 16.7% que utilizan bitácoras tienen maestría en computación o afín, mientras que el 6.7 % que utiliza bitácoras, no tiene un perfil acorde al área de computación.

Después de haber hecho un primer análisis univariado de cada una de las preguntas de la encuesta, se tomaron en cuenta las más importantes para poder hacer un análisis bivariado y que nos lleven a una mejor comprensión de resultados.

2. ¿Qué tipo de ámbito pertenece? vs ¿Realiza Captura de datos en el centro de cómputo? Podemos decir en primera instancia de los centros de cómputo estudiados el 47 % cuenta con centros de cómputo pequeños, el 30 % con CC medianos, 13 % CC grandes y el 10 % tiene CC extra grandes.

Las preguntas más relevantes tomadas en cuenta para el análisis bivariado se seleccionar en base a los objetivos de la tesis y fueron las siguientes:

Las dos variables nos permiten saber que del 40 % de los Organismo Autónomos, el 16.7 % cuenta con centros de cómputo medianos, y un 13 % CC pequeños. También se observó que hay pocos centros de cómputo extra grandes y que lo tiene el Federal, Estatal y Organismos Autónomos con un 6.7 %.

UNIDAD I. PLANEACIÓN, ORGANIZACIÓN E INTALACIÓN DE CENTROS DE CÓMPUTO.

1.-¿Cuáles son las funciones que realiza en el CC? 4.-¿Proporcione el perfil del jefe o responsable del CC? UNIDAD II. MONITOREO Y ADMINISTRACIÓN RENDIMIENTO DE UN AMBIENTE TI.

¿Utiliza Bitácoras? Vs El perfil del jefe o responsable del centro de cómputo.

DEL

En general la mayoría de las dependencias estudiadas, el 47 % cuentan con CC pequeños excepto el federal.

22.- ¿Qué tipo de bitácora utiliza? 24.- ¿Cómo realiza la supervisión de la red?

3

31.- ¿Cuenta con algún programa o método de evaluación de desempeño que desarrolla con el personal? UNIDAD III. SEGURIDAD DE LA INFORMACIÓN

28

¿Qué bitácoras utiliza? vs Perfil del jefe o responsable del CC.

Tlamati, Número Especial 3 CICOM 2014 Podemos deducir de acuerdo al cruce, que del 50 % de los que utilizan un software como bitácora, el 23.3 % lo realizan los ingenieros en computación, y del 26.7 % de licenciados en informática lo utiliza el 16.7 %.

Es por ello que se debe realizar un análisis detallado de la infraestructura en cuanto al hardware y poder saber que departamentos podrán tomarse en cuenta para poder determinar la cantidad de equipo de cómputo.

Solo un 10 % tiene otro tipo de perfil, y el 6.7 % en su mayoría utiliza libreta como bitácora.

En conclusión podemos decir que de los 30 CC estudiados, en su mayoría son dependencias que cuentan con centros de cómputo pequeños que comprenden de 4 a 26 equipos.

5.2 Comparativo de resultados

5.2.5 Seguridad de la información La metodología que utilizan estos para proteger los datos es que restringen las memorias USB para evitar algún virus que pueda infectar la información, el dispositivo de almacenamiento utilizado el disco duro (HD).

5.2.1 Principales funciones de un centro de cómputo Las principales funciones analizadas de la encuesta son diferentes a las del manual y nos dice que de los 30 centros de cómputos analizados y de los que se obtuvo información, establecen que de entre las principales funciones se encuentran: “El soporte Técnico”, “La Administración de Aplicaciones Web” y la “Captura de Datos”.

6, CONCLUSIONES Después de procesar toda la información y de haber analizado las seis unidades y sus 67 preguntas de la encuesta podemos deducir de cada unidad lo siguiente:

5.2.2 Utilización de bitácoras y eventos registrados Dentro del manual de operación, establece que se pueden analizar varios eventos en una bitácora como son:

Planeación, organización e instalacion de centros de cómputo

a) Sistema.

Los centros de cómputo en la ciudad de Chilpancingo no se rigen de acuerdo a las normas establecidas en el manual, y tampoco cuentan con la infraestructura adecuada para poder instalarlos.

b) Correo c) web. d) Ruteadores.

En pocas palabras solo se crean centros de cómputo de acuerdo a las necesidades de la empresa o dependencia y de ello depende el espacio total del centro de cómputo, las secciones físicas en que se dividen.

e) Switches. f) Firewall, IDS. g) RADIUS.

6.1 Monitoreo y administración del rendimiento de un ambiente de t.i.

Los resultados arrojados de las encuestas nos dicen que más de la mitad utilizan bitácoras “Electrónicas” y “Libreta” el resto utiliza algún “Software”, “Base de Datos o un SO.

En conclusión se puede deducir que los centros de cómputo realizan monitoreo de revisiones periódicas y cuentan con personal calificado para administrar el rendimiento en su entorno de trabajo.

Señalar algo muy importante y relevante en cuanto a los eventos analizados es que en gran parte se encargan de analizar el sistema que es un punto principal que el manual establece.

6.2 Seguridad de la información En cuanto al respaldo podemos concluir que si llevan una metodología para hacerlo y lo hacen mediante dispositivos de almacenamiento, pero que no cuentan con otro método de respaldo como un centro de cómputo alterno en caso de algún desastre natural.

5.2.3 Verificar si cuentan con personal cualificado para atender los problemas que se susciten. El análisis de las encuestas arrojaron que gracias a que prácticamente todos los centros de cómputo cuentan con un método para evaluar al personal en cuanto a su desempeño en la empresa o dependencia, pueden resolver los problemas que se llegaran a suscitar en el centro de cómputo, a pesar de que cuentan con ese método no lo llegan aplicar en todo el personal y no lograr resolver todos los problemas al 100 % ,cumpliendo así unos de los objetivos del manual en cuanto a la evaluación de desempeño del personal.

6.3 Centro de atencion a clientes (help desk) Para este punto se concluye que en su mayoría los centros de cómputo cuentan con atención a clientes y lo realizan de manera presencial.

5.2.4 Cantidad de equipo de cómputo con que cuentan los centros de cómputo. El manual estable que el número de computadoras a tomarse en cuenta depende del presupuesto con que cuente la dependencia y también de las funciones a realizar.

29

Tlamati, Número Especial 3 CICOM 2014 Otro punto es que no aplican las normas de seguridad correspondientes, y en caso de alguna falla en el sistema o de algún desastre natural no cuentan con un plan de recuperación de la información.

6.4 Servicios de consultoria y soporte tecnico En general los centros de cómputo no han contratado el servicio de consultoría porque tienen el personal adecuado para resolver los problemas en su área, ya que son pocas las actividades que realizan.

7. BIBLIOGRAFÍA

6.5 Proyectos de inversión y financiamiento Ningún centro de cómputo utiliza proyectos de inversión esto se debe quizás a la falta de presupuesto.

[1] Armenta, J. (24 de Agosto de 2009). http://iarmenta.wordpress.com. Recuperado el Agosto de 2012, de http://iarmenta.wordpress.com/2009/08/24/historia-de-loscentros-de-cmputo/

En conclusión final y en base a los resultados estadísticos podemos decir que hay una mala planeación en la creación de los centros de cómputo en la Ciudad de Chilpancingo, Gro. Esto no quiere decir que no se operan adecuadamente, si no que al crear un centro de cómputo hace falta un manual que nos diga los lineamientos para poder tener un buen centro de cómputo.

[2] Rodríguez, M. C. (s.f.). http://www.estadistica.mat.uson.mx. Obtenido de http://www.estadistica.mat.uson.mx/Material/etapas.pdf

También podemos decir que las dependencias tienen sus centros de cómputo en base a sus necesidades, por lo tanto es difícil que se puedan operar de acuerdo al manual y tener un buen funcionamiento, esto a veces también es por la falta presupuesto.

[3] Yllanez, J. A. (s.f.). http://www.cs.cinvestav.mx. Obtenido de http://jgorostizacomputacion.files.wordpress.com/2012/09/c ronografc3ada-cinco-dc3a9cadas-del-cc3b3mputo-enmc3a9xico.pdf

30

Tlamati, Número Especial 3 CICOM 2014

Espacios Virtuales para la formación de semilleros de investigación en la UNAD Germán Alfredo López Montezuma

Francisco Nicolás Javier Solarte Solarte

Manuel Ernesto Bolaños Gonzales

Universidad Nacional Abierta y a Distancia – UNAD Calle 14 No. 28-45 Sector Bomboná 57-(2)7237441

Universidad Nacional Abierta y a Distancia – UNAD Calle 14 No. 28-45 Sector Bomboná 57-(2)7237441

Universidad de Nariño Calle 18 carrera 50 Ciudadela universitaria – Torobajo 57-(2)7311449

germá[emailprotected]

[emailprotected]

[emailprotected]

El plan de trabajo para la formación de nuevos grupos y semilleros de investigación, se distribuye en cuatro etapas: la primera de sensibilización y fundamentación epistemológica, la segunda con la conformación de grupos de estudios, la tercera con la conformación de grupos de discusión y redacción de textos, y la cuarta para la conformación de los semilleros propiamente dichos, quienes deben ser certificados como grupos de investigadores ante el Sistema de Gestión de la Investigación SIGI y la Fundación Redcolsi.

RESUMEN El artículo presenta un espacio virtual para dinamizar la estrategia extracurricular de los Semilleros de Investigación, dirigido a los estudiantes de pregrado de la Universidad Nacional abierta y a Distancia UNAD. La universidad, desde el año 2005 viene adelantando procesos graduales de inclusión de tecnología que permitan hablar de un nuevo paradigma pedagógico, como se manifiesta de manera explícita dentro del Proyecto Académico Pedagógico Solidario PAPS[1] donde cerca del 85% de los cursos se oferta virtualmente mediado por la tecnología como una nueva estrategia pedagógica.

Categorias y Descriptores Temáticos Educación con nuevas tecnologias

El presente proyecto permitirá encuentros espacio temporales que permitan reflexionar, construir, de-construir y reconstruir las diferentes propuestas investigativas formuladas por los estudiantes. Este espacio permite mantener la dinámica de formación de los nuevos investigadores, desde la etapa de sensibilización de la estrategia, conformación de grupos de estudio específico e interdisciplinares y la estructuración de los Semilleros de Investigación considerados como las pequeñas comunidades de una o varias disciplinas, constituidas para responder una pregunta, desarrollar una idea, un tema, o una propuesta de investigación.

Términos Generales Diseño de Espacios Virtuales

Palabras reservadas Espacio virtual, semillero de investigación, grupo de estudio, Redcolsi, investigación Formativa.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

1. INTRODUCCIÓN La investigación se considera como la búsqueda de información cuyo propósito es aumentar y generar conocimiento, como aquella posibilidad de descubrir las relaciones causa-efecto, donde gracias a la reflexión que se hace de los diferentes fenómenos de la naturaleza desde cada una de las áreas del quehacer humano, permite encontrar respuestas a los diferentes interrogantes que de manera

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

31

Tlamati, Número Especial 3 CICOM 2014 cotidiana nos enfrentamos en un entorno cada vez más cambiante. [2]

procesos presenciales. Con el fin de mejorar la situación presentada durante los últimos tres años, donde la dispersión de los estudiantes es evidente, se propone el diseño de un espacio virtual para la dinamización de la estrategia pedagógica extracurricular, donde los grupos interesados cuenten con las posibilidad de compartir sus inquietudes, intereses y propuestas de investigación que busquen en ir más allá de la simple repetición y memorización de contenidos.

La investigación en el aula se constituye en una estrategia que tiene dos connotaciones: el Estudiante como investigador de la realidad y constructor de su propio conocimiento, y el Educador como investigador de los sucesos que configuran la vida en el aula. [11]

2. CONTENIDO DE LA PROPUESTA

Ahora bien, dentro de los procesos educativos, el conocimiento y las prácticas investigativas, son elementos que requieren una reflexión continua, puesto que, si hablamos de calidad en la educación, es la investigación quien posibilita validar la afirmación, de tal manera que las distintas instituciones de educación cumplan con el compromiso social de formar seres para una nueva sociedad.

La Universidad Nacional Abierta y a Distancia UNAD, desde el año 2005, propone dentro de su misión los ejes fundamentales los cuales giran en torno a la investigación, la academia, la proyección social comunitaria y las innovaciones tecnológicas. Para la institución es vital el ejercicio investigativo, razón por la cual se formula como uno de los objetivos estratégicos que se debe alcanzar en todas las áreas y regiones en la cual hace presencia dentro del territorio colombiano, con propuestas que impacten y mejoren las condiciones de vida de sus habitantes.

El acercamiento a las posibles respuestas de los interrogantes formulados requiere de un método que valide las explicaciones de los hechos o ideas, a través de procesos sistemáticos donde la intención es la búsqueda objetiva de las explicaciones a los distintos fenómenos naturales y sociales.

Por eso se asume la investigación como un eje que atraviesa toda la formación del futuro profesional, no se circunscribe a una asignatura, a un periodo académico o a un momento en especial, se instaura como un proceso constante y continúo liderado por estudiantes, pedagogos y docentes de un saber disciplinar. [13] [14]

Los países latinos presentan un déficit en el campo investigativo, los datos estadísticos reportados muestran un porcentaje del 2,5% de participación a nivel mundial [3], es por ello que la responsabilidad de quienes adelantamos los procesos académicos de formación en las distintas disciplinas del saber, debe enfocarse en la tarea de propender por la formación investigativa de todos aquellos que se encuentren motivados por adelantar este tipo de procesos.

Ante la creciente demanda de recursos que permitan la comunicación sincrónica y asincrónica en los procesos educativos, es necesario adelantar procesos de planificación donde el mayor énfasis se desarrolla en la etapa inicial, puesto que mediante el diseño instruccional, es posible considerar todos los aspectos a través de un procedimiento bien organizado que provea las guías necesarias para los profesores, instructores, tutores o facilitadores, que van a impartir el curso. El ambiente instruccional debe ser visto como un sistema, que relaciona todos sus componentes entre sí: el instructor, los aprendices, los contenidos y materiales, las estrategias, medios y/o tecnologías. Estos componentes deben interactuar en forma eficiente para producir experiencias de aprendizaje de calidad (Moore & Kearsley, 1996).

Desde 1998 las instituciones de educación superior en Colombia, cuentan con la posibilidad de dar a conocer los procesos de formación investigativa que se adelantan por parte de los grupos denominados Semilleros de Investigación, quienes se congregan en el primer encuentro nacional y gestan el nuevo movimiento en pro del desarrollo de la Cultura Científica.[4] Siendo los semilleros de investigación, grupos que se establecen en entidades de Educación Superior, considerados como aquel espacio donde los estudiantes de manera creativa, innovadora y fuera de lo convencional buscan respuesta a los múltiples interrogantes que de manera permanente les brinda el entorno, es indispensable que al interior de las Instituciones se ofrezcan los espacios necesarios para que los estudiantes desde los primeros periodos académicos hagan su acercamiento al mundo maravilloso de la investigación.

Desde el año 2007, la Institución hace parte de la Fundación Red Colombiana de Semilleros de Investigación Redcolsi, capítulo Nariño, entidad que acoge a ocho Instituciones regionales de Educación Superior, quienes desde su comité ejecutivo local han procurado por brindar los espacios para que los estudiantes semilleristas de cada una de las organizaciones adscritas al Nodo compartan experiencias, construyan y reconstruyan las distintas propuestas investigativas.

La investigación como proceso, debe agotar una serie de etapas que le permitan al estudiante alcanzar buenos resultados en el corto, mediano y largo plazo, además esas pequeñas comunidades de aprendizaje de una o varias disciplinas, se constituyen para dar respuesta a la pregunta, desarrollar una idea o tema de investigación convirtiéndose en elemento vital para lograr la renovación generacional de los investigadores.

Históricamente desde la vinculación a la Redcolsi, la participación de la UNAD en el Encuentro Regional programado cada año, ha sido bastante representativa, prueba de ello es la designación como sede del evento Nodal en el año 2009; sin embargo los nuevos procesos académicos referenciados en apartes anteriores hacen que esa vinculación sea cada vez menor, es por ello que se hace necesario diseñar un espacio de sensibilización y conformación de los nuevos grupos investigadores que mantengan viva la participación en las redes

Ante la nueva propuesta formativa ofertada por la UNAD, muchos de los estudiantes matriculados optan por los servicios de la mediación virtual lo cual ha generado el nuevo paradigma pedagógico y los grupos de semilleros de investigación son cada vez más difíciles de integrar en comparación con las organizaciones que cuentan con la posibilidad de adelantar sus 32

Tlamati, Número Especial 3 CICOM 2014 de conocimiento y logren resultados investigativos que beneficien a la comunidad Nariñense. Como una iniciativa desde la Escuela de Ciencias Administrativas, Contables, Económicas y de Negocios ECAEN, se origina el espacio virtual de formación de semilleros de investigación dentro de la plataforma EDU 2.0, la cual brinda una serie de recursos que poco a poco han servido para acoger a todos aquellos estudiantes que motivados por ese compartir de experiencias e inquietudes interdisciplinares, se registran en los diferentes espacios para dar inicio a la formación y construcción del nuevo conocimiento. “Investigar es ver en la realidad lo que otros no han visto”. [5] Esta iniciativa ha tomado fuerza y se ha trasladado a otras escuelas e instituciones como prueba de su funcionamiento, el grupo de investigación GRIEE acogió la idea para conformar grupos de investigación en la Escuela de Ciencias Básicas, Tecnología e Ingeniería - ECBTI y específicamente en Ingeniería de sistemas y se pretende llevar la misma idea al programa de ingeniería de sistemas de la Universidad de Nariño.

Fig. 1 Registro de estudiantes matriculados en el espacio virtual de Semilleros de Investigación controversias reflexivas, ensayos, diagramas causa efecto, propuestas de investigación, ponencias, interpretación de mapas conceptuales, debates, todas apoyadas en los recursos de web, en busca de contrarrestar esa desmotivación presentada por los estudiantes para ser partícipes de nuevas opciones para construir conocimiento.

Gracias al apoyo incondicional de los compañeros integrantes del grupo de investigación Sindamanoy, se originan tres subgrupos de apoyo para los nuevos investigadores (Ecoturyvi, Tajumbina, Quillasinga), quienes son liderados por docentes con gran reconocimiento en materia investigativa, y tiene como labor la de orientar y acompañar los nuevos procesos desarrollados por los estudiantes. Para la primera etapa del proceso, denominada sensibilización y fundamentación epistemológica, gracias a las bondades brindadas por la plataforma se diseña una serie de recursos que permiten la interacción entre el grupo de estudiantes y docentes matriculados con miras a lograr la conformación de los grupos específicos, teniendo en cuenta las líneas de investigación definidas por cada una de las escuelas que integran la Universidad Nacional Abierta y a Distancia. En el momento se cuenta con un registro de 100 inscritos, personas que viven en las distintas latitudes de la Zona Centro Sur de Colombia, de los cuales muy seguramente en un futuro cercano formarán los grupos de renovación investigativa que tanta falta le hace a la región. “Es imposible hacer cualquier planteamiento científico espaldas de la ciencia, y bien podría decirse lo mismo de epistemología. La base y punto de partida del científico es realidad, que mediante la investigación le permite llegar a ciencia”[6][7]

! "

#

$

Fig. 2 Fases e interfaces de aprendizaje en escenarios, situaciones y contextos diversos

a la la la

Es de anotar que el curso tuvo su origen en el segundo semestre del año 2013, con un primer acercamiento de motivación que demuestre la aceptación por parte de los estudiantes interesados; para ello con base en una serie de datos básicos nombre completo y correo electrónico se adelantó el registro de matricula a la nueva estrategia, a vuelta de correo electrónico, los estudiantes interesados aceptan la invitación y proceden al desarrollo de las distintas actividades de capacitación, a fin de agotar durante un periodo académico su cualificación y obtener el respectivo registro como semillerista ante la Redcolsi como organismo externo y ante el Sistema de la Gestión de la investigación al interior de la UNAD.

Por qué la plataforma EDU2.0?, siendo un espacio extracurricular el grupo investigador y diseñador opto por el manejo de esta plataforma, a fin de evitar confusiones con los cursos que matricula normalmente el estudiante, cuya oferta se hace en la plataforma Moodle, para luego hacer un registro estadístico de las respuestas por parte de los estudiantes matriculados en los semilleros virtuales. Dentro de planificación del curso denominado espacio virtual para la formación de los semilleros de investigación, se formulan una serie de estrategias para el desarrollo del trabajo colaborativo como las guías de instrucción, mesas redondas, ,

Tabla 1. Caracterización de los estudiantes y docentes registrados en el espacio virtual semilleros de investigación

33

Tlamati, Número Especial 3 CICOM 2014 GENERO

No DE MATRICULADOS

Femenino

47

Masculino

40

Total

87

Lemarchand, G.(2010) Sistemas nacionales de ciencia, tecnología e innovación en América Latina y el Caribe. UNESCO Red Colombiana de Semilleros de Investigación (2013)

Los grupos de estudio correspondiente a la segunda etapa de la formación de los semilleros de investigación, en el momento están representados por un grupo de 30 estudiantes quienes agotaron ya las dos primeras fases de capacitación y proceden a la integración de la tercera etapa de discusión y redacción de textos.

Reseña histórica diez años de permanencia en Nariño. Nodo Nariño de semilleros de Investigación.

Tomando en consideración todos los aspectos anteriores, y a partir de los elementos señalados en el Modelo Sistemático de Diseño de Instrucción de Dick, W., Carey[8], el modelo de Dorrego [9], Dorrego y García [10], el modelo de Sciffman[15], las recomendaciones de Asinsten, citado por Valzacchi (2003) y Chacón (2000), relacionadas con cómo armar y diseñar un curso Web, y tomando en cuenta las teorías cognitiva y constructivista del aprendizaje, se diseña la estrategia que permite dinamizar la formación de los nuevos investigadores.

Tamayo, M. (1995) La investigación. Serie aprender a investigar. Modulo 2 ICFES, p.20

Tamayo, M. (1995) La investigación. Serie aprender a investigar. Módulo 2 ICFES.

Díaz, F., Rojas, G.(1999). Estrategias docentes para un aprendizaje significativo: Una interpretación constructivista. México: Editorial McGraw-Hill Dick, W., Carey, L. & Carey, J. (2001). The systematic design of instruction: United States: Addison-Wesley Educational Publishers.

3. CONCLUSIONES

Dorrego, E. (1997). Diseño instruccional de los medios y estrategias cognitivas. Comunicar 7, 149-154.

La ciencia considerada como la búsqueda y adquisición sistémica de conocimientos sobre los objetos y el mundo que nos rodea, es un sistema de conocimientos en continuo desarrollo dada la complejidad del pensamiento humano, la construcción de la realidad y los objetivos de la ciencia.

Dorrego, E & García, M. (1993). Dos modelos para la producción y evaluación de materiales instruccionales. Caracas, Venezuela: Universidad Central de Venezuela. Facultad de Humanidades y Educación. Fondo Editorial

El espacio virtual de aprendizaje, diseñado para dinamizar la estrategia de semilleros de investigación, como fruto de un proceso diagnóstico y planificado permite dar respuesta a una necesidad de la comunidad académica de la Universidad Nacional Abierta y a Distancia UNAD de la Zona Centro Sur, quienes por la nueva oferta académica virtual mediada por la tecnología no cuentan con los espacios extracurriculares necesarios para responder, plantear y actuar en el momento de la investigación con una mente creativa que se preocupe por aprender de su entorno, con un reto continúo para preguntar, crear, pensar, leer y disfrutar lo que hace.

García, R. (2009). La investigación en el aula. Guía para la investigación en el aula. Ibarra, Ibarra, Ecuador. Universidad Técnica del Norte, Vicerrectorado Académico. [13]Garcia, E. (2010). Materiales Educativos Digitales. Blog Universia. Recuperado de http://formacion.universiablogs.net/2010/02/03/materialeseducativos-digitales/ Gros, B., García, I., Lara, P. (2009). El desarrollo de herramientas da apoyo para el trabajo colaborativo en entronos virtuales de aprendizaje. RIED V. 12: 2, pp 115138. Recuperado de http://ried.utpl.edu.ec/images/pdfs/vol12N2/desarrolloherra mientas.pdf

Estos espacios virtuales se pueden extender a otras instituciones para la conformación de redes académicas y de investigación donde participen docentes y estudiantes en proyectos conjuntos que permitan desarrollar la investigación formativa con el aprovechamiento de recursos tecnológicos que permitan la interacción entre los actores involucrados en estas redes.

Ramírez, R. (2000). Elementos conceptuales para la formación de docentes en las facultades de educación. San Juan de Pasto, Colombia. Universidad de Nariño, Centro de Investigaciones para el Desarrollo de la Pedagogía CIDEP.

4. REFERENCIAS Proyecto Académico Pedagógico Solidario PAPS 3.0 Universidad Nacional Abierta y a Distancia UNAD.

Schiffman, S. (1995). Instructional systems design: Five views of the field. In G.J. Anglin (Ed.), Instructional technology: Past, present and future (pp. 131-142). Englewood, CO: Libraries Unlimited, Inc.

Calvache, L E. (2005) La investigación una alternativa pedagógica y didáctica en la formación profesional. Centro de Publicaciones Universidad de Nariño CEPUN 34

Tlamati, Número Especial 3 CICOM 2014

Impacto económico, educativo y social de las alteraciones de conducta en los niños y su detección a través de técnicas de ingeniería. David. G. Maxínez

Eloisa M. Vivas Villasana

José M. Martinez Castro

Departamento de Ingeniería en Computación, Universidad Nacional Autónoma de México (Av. Rancho Seco, Esq. Central.

Facultad de Arquitectura e Ingenierías, Universidad Americana de Acapulco (Av. Costera Miguel Alemán No. 1756, Fracc. Magallanes, Acapulco, Gro. CP. 39670)

Departamento de Sistemas y Computación, Instituto Tecnológico de Chilpancingo, Av. Jose Francisco Ruiz Massieu #5, Fracc. Villa moderna, CP. 39090, Chilpancingo, Gro.,

[emailprotected]

[emailprotected]

[emailprotected] x

El comportamiento anómalo se diferenciaría del normal por el grado, intensidad y persistencia con el que se observarían determinadas conductas no propias de la edad o bien por la discrepancia conductual cualitativa, disruptiva o desarraigante, con el resto del grupo.

Resumen: La presente investigación describe la problemática económica y social de los niños con trastornos de conducta “niños problema” y sirve como base para sustentar y justificar la aplicación de la técnica de ingeniería fuzzylogic, la cual permite optimizar la identificación oportuna y eficaz de las alteraciones de conducta en niños y adolescentes.

1.1 Aspectos Económicos

Desde un punto de vista económico, la educación incide en beneficios sociales, que se distribuyen entre los diversos sectores de la sociedad que la reciben, es decir la educación genera un impacto económico cuando los recursos son aprovechados de la mejor manera posible y si además al hacerlo se optimiza la relación existente entre los beneficios derivados de la misma y los costos, “considerando que al evaluar el cumplimiento de esta condición se aplica el criterio de eficiencia”.

Palabras clave: Impacto, económico, social, alteración, trastorno, hiperactividad, déficit, impulsividad, fuzzy.

1. Introducción La normalidad o anormalidad de la conducta de un niño se valora por criterios aplicables según la edad. Se valora como normal la conducta infantil, mediante un criterio cuantitativo, la de mayor frecuencia en una determinada etapa infantil y cualitativa como la capacidad de ajuste del individuo al medio, que le capacita para mantener relaciones interpersonales y académicas apropiadas.

Las inversiones en recursos humanos están destinadas a incrementar entre otras, las capacidades de producción, de obtención de ganancias y en general una mejora substancial de vida. Como regla general, el incremento es el resultado de la adquisición de conocimientos y del aprendizaje de procedimientos que permiten lograr determinados objetivos [1].

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

Se atribuye valor al factor humano porque éste es capaz de generar servicios. "Ese valor equivale, •en términos financieros• al de los servicios que dicho factor podrá generar en el futuro, concepto establecido por los economistas Cf. Bullen, Flamholt y Sackman, de esta consideración se desprende la teoría del capital humano, establecida entre la segunda mitad de la década de los cincuenta y la primera mitad de los 60`s [2]. Otros

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

35

Tlamati, Número Especial 3 CICOM 2014

se evalúa el comportamiento de un niño es fundamental tener en cuenta su edad y su nivel de desarrollo, pues la mayoría de las conductas de los niños disóciales pueden ser normales en una determinada edad o situación, y lo que es patológico puede ser la edad en que aparecen, el contexto y la frecuencia.

economistas como R. Solow desarrollaron en forma paralela las teorías de la educación como factor del crecimiento económico. Primero, la del capital humano que forma parte de un enfoque microeconómico, que explica las diferencias existentes entre los ingresos que se obtienen durante la vida económicamente productiva de los individuos con distintos niveles de escolaridad. La segunda, en cambio, la educación como factor de crecimiento económico enfoque macroeconómico , que intenta determinar la contribución que hace la escolaridad al crecimiento del producto interno bruto de los diferentes países.

Por ejemplo, un niño de tres años con una rabieta en una situación de frustración no podría ser catalogado como patológico excepto que la violencia desplegada fuese extraordinaria o la frecuencia de las rabietas fuese muy alta. En cambio, una “rabieta” en un adolescente acompañado de rotura de objetos, agresividad y pataleos, difícilmente podrá considerarse normal [5].

Los gastos públicos invertidos en educación se relacionan positivamente con el futuro crecimiento económico, sin embargo en el corto plazo si las expectativas de cumplimiento de metas, específicamente, en los niveles de educación básica no es el esperado, el efecto de esos gastos puede ser negativo y se podría considerar como una inversión no redituable.

2.- Detección de niños con alteraciones de conducta. Específicamente las alteraciones o trastornos del comportamiento o conducta, son aquellas que afectan de forma negativa la relación del niño o niña con su entorno, generalmente se detectan por los familiares o por los maestros que conviven diariamente con ellos y se hace al observar una repetición de eventos que alteran la convivencia grupal, es importante hacer notar que estos infantes llegan en un momento determinado a ser “vistos” como “inmanejables” por las personas de su entorno [6].

En 1948 la educación se reconoció como un derecho humano, las Naciones Unidas y otros organismos la consideran fundamental para el ejercicio de otros derechos políticos, sociales y económicos [3]. La inversión en educación, salud y protección social beneficia tanto al individuo en términos de sus ingresos y oportunidades de desarrollo laboral, como a la sociedad en su conjunto y al país en lo general.

2.1 Características de los niños con trastornos de conducta.

Sistemáticamente existen diversas manifestaciones para diferentes alteraciones o trastornos de conducta. Un perfil general considera aspectos como:

1.2 Aspectos sociales Las alteraciones de conducta o trastornos de comportamiento son el problema más frecuente de demanda de atención en los centros de salud mental de niños y adolescentes[4], y actualmente son objeto también de atención por parte de instituciones educativas, judiciales y sociales.

• • •

Lo anterior nos permite tener un referente de los resultados que puede generar la falta de preocupación o la falta de herramientas para la identificación oportuna de los niños y adolescentes con alteraciones de conducta en las escuelas de educación básica.

Existencia de un patrón de conducta anómalo, persistente y reiterado. Presencia de alteraciones conductuales en distintos ambientes, hogar, escuela, calle, etc. Presentan sintomatología clínica subyacente: baja autoestima, escasa tolerancia a la frustración, inestabilidad y labilidad emocional.

Sin embargo, en particular, las características deben de analizarse y referenciarse a la tipología más adecuada en cada situación y pueden ser del tipo, cognitivo, afectivo y social , a su vez dentro de ellas se encuentran manifestaciones del tipo egocéntrico, ausencia de empatía, bajo umbral de tolerancia a la frustración, autoimagen negativa [8]...etc. Una síntesis de cada una de ellas sería:

Por lo tanto, debemos preguntarnos, ¿Podemos prevenir los problemas psicológicos o psiquiátricos en los adultos, haciendo una buena identificación de los problemas de conducta en los niños? Hasta hace unos años, se creía que los trastornos afectivos no aparecían antes de la mitad o el final de la adolescencia y actualmente se acepta que posiblemente todos los trastornos psiquiátricos del adulto pueden tener su inicio durante la niñez o la adolescencia. Por otro lado cuando

2.1.2 Área cognitiva

36

Tlamati, Número Especial 3 CICOM 2014

Hace referencia a la coordinación Visomotriz: dificultades en la transcripción, en el copiado, en el modelado de estructuras y formas entre otras. Dificultades aritméticas: Errores de cálculo, de procedimiento, de agrupamiento, evaluación, etc. Lectura deficiente: Errores en la articulación, cambio de letras, adelanto de párrafos, etc. Memoria corta: Olvido de instrucciones en general, dificultad de retención, etc. Capacidad de retención: No atiende instrucciones o atiende en periodos cortos, falta de concentración, no termina tareas, abandono de tareas.

2.2.3 Hiperactividad Los niños hiperactivos poseen una conducta basada en tres aspectos clave; dispersos, nivel de actividad muy grande y falta de autocontrol excesiva en general. A menudo se mueven o abandonan su asiento, mueven constantemente manos y pies, corren o saltan en situaciones inapropiadas, hablan en exceso, siempre en movimiento, actúan “como si estuvieran impulsados por un motor”. 2.2.4 Déficit de atención En el déficit de atención generalmente involucra la falta de concentración y la desatención ante cualquier estímulo. Se caracteriza por dificultades para mantener la atención en tareas, no prestan atención suficiente a los detalles, incurriendo en errores en las tareas o trabajo. No siguen instrucciones y no finalizan las tareas o encargos, parecen no escuchar, dificultades para organizar, planificar, completar y/o ejecutar las tareas, suelen evitar las tareas que implican un esfuerzo mental sostenido, se distraen fácilmente por estímulos irrelevantes y a menudo pierden objetos necesarios para las tareas.

2.1.3 Área Afectiva Hace referencia a la incapacidad para controlar sus emociones, en términos generales no evalúa: estímulos, resultados, estrategias, en general muestra una conducta impredecible. 2.1.4 Ausencia de empatía La empatía, es una de las habilidades que conforman la inteligencia emocional y es la que nos permite percibir los sentimientos de los otros y hacer que se sientan menos solos. Se trata de abrir la mente e intentar captar la vida del otro desde su perspectiva y no desde nuestros ojos, de tal modo que se pueda tener una actitud comprensiva frente a la circunstancia del otro. En este sentido la ausencia de empatía muestra un marcado desinterés por las circunstancias y sentimientos de otros que conviven habitualmente con el niño.

2.2.5 Déficit de atención con hiperactividad Es una mezcla entre los aspectos señalados anteriormente. Se caracterizan por distracción de moderada a grave, períodos de atención breve, inquietud motora, inestabilidad emocional y conductas impulsivas. Es uno de los trastornos psiquiátricos más prevalentes de inicio en la infancia y la alteración de conducta •neuroconductual• más diagnosticada en niños de edad escolar.

2.1.5 Nivel de autoimagen negativa. La pérdida de confianza en uno mismo, intensificando sentimientos y acciones negativas que influyen en su desarrollo; el no puedo, nunca podré, me pone muy nervioso, no vale la pena, son algunas de sus características.

2.2.6 Impulsividad La impulsividad se manifiesta por impaciencia, dificultad para aplazar respuestas, dar respuestas precipitadas, dificultad para esperar el turno o interrumpir o interferir a otros hasta el punto de tener problemas en los ámbitos escolar, social o familiar. Además de la inadecuación social, la impulsividad facilita la aparición de accidentes o la realización de actividades potencialmente peligrosas sin considerar sus posibles consecuencias.

2.1.6 Área social En sus relaciones, cree que sus propias opiniones e intereses son más importantes que las de los demás, por lo general se evalúa el bajo intercambio de ideas, opuesto a sugerencias o a nuevas propuestas…etc.

3. Análisis y Problemática

2.1.7 Bajo nivel de tolerancia a la frustración La baja tolerancia a la frustración es causa de enojo, depresión e incapacidad de solución o adaptación ante cualquier molestia o problema. Rabietas temperamentales y llanto incontrolable son algunas de sus manifestaciones

En México la estadística educativa del 2008 tabla 1, refleja la cantidad de alumnos inscritos en los diferentes niveles escolares [9].Como se puede observar la mayor cantidad de alumnos se ubican en los niveles de primaria y secundaria. Grado Escolar Cantidad Alumnos Preescolar 4,745,741.00 Primaria 14 585 804 Secundaria 6 055 467 Bachillerato 3 390 432

2.2 Clasificación de niños con alteraciones de conducta

De forma habitual los niños se tratan considerando diversos aspectos los más generales son, hiperactividad, déficit de atención, hiperactividad con déficit de atención e impulsividad. 37

Tlamati, Número Especial 3 CICOM 2014

Nivel Técnico Licenciatura Posgrado

social, más aún si adicionalmente consideramos que los niños con trastornos de conducta entre otras cosas:

352 510 2 317 001 162 000

• •

Tabla 1. Estudiantes en México 2008 El costo por alumno y por ciclo escolar se muestra en la tabla 2, [7].

Grado Escolar Costo Alumno Preescolar $ 14 200.00 Primaria $ 12 900.00 Secundaria $ 19 900.00 Nivel Técnico $ 17 100.00 Bachillerato $ 24 500.00 Tabla 2. Costo de la educación por alumno. Si reflexionamos sobre la inversión que el gobierno hace en educación tan solo en los niveles de primaria y secundaria, tabla 3, notamos que la cantidad es muy considerable. Grado escolar Primaria Secundaria

En consecuencia si la detección no es correcta y oportuna, nuestro país, enfrentará un problema de alto costo, económico, educativo y social.

Costo anual (mill.) 188,156,871,600.00 12, 503, 793,300.00

4 Estrategia de solución en la detección

Tabla 3. Inversión en educación 2008

Debido a que la detección de un niño con alteraciones de conducta se realiza al observar una repetición de eventos que alteran de alguna forma la convivencia grupal y que esta descripción es realizada mediante un lenguaje ambiguo propio del ser humano, es decir un lenguaje que no puede establecer un valor exacto de comportamiento, pero que sin embargo el ser humano es capaz no solo de interpretar y comprender sino también de evaluar y emitir una respuesta.

Realmente esta inversión no sería cuestionada si como se mencionó anteriormente •las inversiones en recursos humanos están destinadas a incrementar entre otras las capacidades de producción, de obtención de ganancias y en general una mejora substancial de vida•. Sin embargo el problema bajo estudio radica en el hecho de que estadísticamente 20 de cada 100 niños tienen problemas de conducta, es decir las cantidades de estudiantes en primaria y secundaria con alteraciones de conducta son de aproximadamente 4,128, 254.2, tabla 4. Grado Escolar Primaria Secundaria

Esta característica en la descripción y detección nos lleva a proponer el uso de la lógica difusa o fuzzy logic.

Cantidad (Mill.) 2,917,160.8 1,211,093.4

La lógica difusa, es una herramienta de análisis que proporciona una manera simple y elegante de obtener una solución a un problema determinado partiendo de información de entrada vaga, ambigua, imprecisa, con ruido o incompleta. Fuzzy Logic refleja lo que la gente piensa en parte modela nuestro sentido del habla, nuestra toma de decisiones y nuestro reconocimiento de vista y sonido.

Tabla 4. Total de niños con alteraciones de conducta. Y el capital invertido en cada rubro sería de, tabla 5. Grado escolar Primaria Secundaria

No son detectados oportunamente No existe orientación real y objetiva que determine el tipo de tipología que se presenta. Son discriminados en el desempeño de sus actividades en deterioro de su confianza básica o autoestima. Son identificados de manera ambigua y sin fundamentos. Con una marcada inclinación a “etiquetarlos”. No existe recurso humano necesario en las escuelas para identificar, registrar o describir apropiadamente la situación. Son limitados los juegos o juguetes para estos tipos de alteraciones que sirvan de apoyo.

Inversión $37,631,374,320 $24,100,758,660

Por ejemplo, al describir que un niño es latoso •usamos la palabra latoso •, que no tiene un valor real pero que nos permite identificar una idea, fuzzy logic permite no solo captar la idea, sino además darle un valor o porcentaje de valor a la etiqueta latoso. Con este valor el especialista podrá diagnosticar y cuantificar que tan latoso es un niño y para así poder determinar con precisión la terapia a seguir.

Tabla 5 Capital invertido. Con esta información podemos analizar y comprender la magnitud del problema, es decir, la inversión en educación para estos niños es muy elevada, incluso supera los recursos económicos asignados a varios estados de la República Mexicana. Esta no inversión, más bien, • gasto •, acarreará a futuro un problema no solo monetario sino 38

Tlamati, Número Especial 3 CICOM 2014

En la figura 1, se describe como la variable denominada latoso se mueve de un rango de verdad de 100% a 0%, adoptando en el trayecto diversos valores intermedios.

Figura 3. Asignación de grado de verdad a una aseveración.

5 Conclusiones

Figura 1. Descripción de un grado de verdada la variable latoso.

El proceso de detección de niños con alteraciones de conducta presenta serios problemas, algunos de ellos son:

La variable latoso puede descomponerse en fuzzy sets, etiquetas del tipo•muy latoso, moderadamente latoso o poco latoso•, esta descomposición de la variable latoso en fuzzy set se muestra en la figura 2.

Figura 2. Descripción de la variable latoso en subconjuntos o fuzzy sets.

Ser discriminados en el desempeño o desarrollo de sus actividades en deterioro de su confianza básica o autoestima según la edad.

Son identificados de manera ambigua y sin fundamentos. Con una marcada inclinación a “etiquetarlos”en un determinado momento llegan a ser “vistos” como “inmanejables” por las personas de su entorno.

No existe orientación real y objetiva para identificar el tipo de tipología que presentan.

No existe el recurso humano necesario en las escuelas que identifique, registre o describa apropiadamente la situación.

No existen juegos o juguetes orientados a este tipo de comportamientos.

Por consecuencia se presume que no se tiene un conocimiento claro de estas alteraciones de conducta y menos del manejo.

La forma de obtener un valor real, no •lingüístico•, es asignado a cada fuzzy set un grado de verdad, por ejemplo en la figura 3, se muestra como el set denominado muy latoso (A) desciende de un valor 100% verdadero a un valor 0% falso. Se observa que en el punto P1 el grado de verdad es del 80% a la aseveración si el niño es muy latoso.

Otro de los aspectos inherentes a destacar es el impacto social derivado de las alteraciones en los adultos que no pudieron ser identificadas en la infancia. La niñez se reconoce en psicología como un período de vulnerabilidad y plasticidad en el desarrollo progresivo hacia la personalidad adulta. Por ello y por su especificidad, los trastornos o alteraciones de conducta que afectan la niñez y la adolescencia se presentan en la edad adulta.

La aplicación de esta técnica descrita en el trabajo, Detección de niños con alteraciones de conducta mediante lógica difusa, es parte de la propuesta de solución a la detección de niños con alteraciones de conducta.

Sin embargo, muchos de los trastornos psiquiátricos de los adultos pueden identificarse retrospectivamente en 39

Tlamati, Número Especial 3 CICOM 2014

alteraciones que se iniciaron en la infancia de modo que su abordaje requiere siempre integrar aspectos neurobiológicos, psicológicos, familiares y sociales.

BIBLIOGRAFÍA Bauermeister, J.J. Hiperactivo, impulsivo, distraído, ¿me conoces?.Guíaacerca del déficit atencional para padres, maestros y profesionales. Madrid . Albor-Cohs. 2002

REFERENCIAS [1]Machlup, F. (1984).Knowledge: Its Creation, Distribution, and Economic Significance. Vol. 3: The Economics of Information and Human Capital, Princeton University Press [2]Bullen, M.; E. Flamoholtz y S. Sackman (1989). Human Resource Accounting: A State-of-the-Art Review.Journal of Accounting Literature, Vol. 8. [3] Vegas, E. y Patrow, J. (2008). Incrementar el aprendizaje estudiantil en América Latina. El Desafío para el Siglo XXI. Washington, D.C. TheWorld Bank. [4]Hill, J. Disorders Of Personality Child and Adolesent Psychiatry. M. Rutter and E. Taylor. Massachusetts, Blackweel. Edition; 723-736. 2006. [5] Investigación sobre Trastornos del Comportamiento en niños y adolescentes. Proyecto Esperi. Fundación Internacional O’Belen. España [6]J. Rodríguez Sacristán. Psicopatología del niño y del adolescente. Universidad de Sevilla. 1995. [7]Entrevista al Secretario de Hacienda y Crédito Público, Ernesto Cordero Arroyo, por Joaquín López Doriga, conductor del programa López Doriga en el 103.3 de FM México, D. F., 14 de febrero de 2011. [8] Juan J. López, Ibor Aliño. Manual Diagnostico y estadístico de los trastornos mentales DSM IV Director de la Edición Española. Ed. Mason. 1995. [9] Sistema Educativo de los Estados Unidos Mexicanos, principales cifras, ciclo escolar 2008-2009D. R. 2008, Dirección General de Planeación y Programación Secretaría de Educación Pública

Caballo, M.V., y Simón, L.M.A. (coords.) Manual de Psicología ClínicaInfantil y del Adolescente. Trastornos generales.Madrid. Pirámide.2005 Cerezo Rramírez, F.Conductas escolar.Madrid.Pirámide. 1998

agresivas

en

la

edad

M. Reinares, E. Vieta. La impulsividad y sus trastornos. IDIBAPS. 1999. Mazet-Houzel. Psiquiatría del niño y deladolescente. Ed. Médica y Técnica. 1989 Méndez, Francisco Xavier, MaciáAnton, Diego, Modificación deconducta con niños y adolescentes. Libro de casos, ed. Pirámide, Madrid2002. Moore, J. and A. Farmer.Personality and Illness.Child and Adolescent Psychiatry.M.Rutter and E. Taylor.Massachusetts, Blackweel. Edition; 711-722. 2006. Trastornos del comportamiento en la infancia y la adolescencia. ¿Qué está sucediendo?. Cuadernos Faros Vol. 3 Snt Joan de Deu. 2009.

40

Tlamati, Número Especial 3 CICOM 2014

Sistema de Monitoreo en Tiempo Real Christian A. Ramírez Hernández

Gerardo Cabrera Hernández

Facultad de Arquitectura e Ingenierías, Universidad Americana de Acapulco. Av. Costera Miguel Alemán No. 1756, Fracc. Magallanes, Acapulco, Gro. CP. 39670. (744) 136 3441

Facultad de Arquitectura e Ingenierías, Universidad Americana de Acapulco. Av. Costera Miguel Alemán No. 1756, Fracc. Magallanes, Acapulco, Gro. CP. 39670

[emailprotected]

[emailprotected]

Antonio González Rivera Facultad de Arquitectura e Ingenierías, Universidad Americana de Acapulco. Av. Costera Miguel Alemán No. 1756, Fracc. Magallanes, Acapulco, Gro. CP. 39670

[emailprotected] .

RESUMEN

de no afectar la situación económica de las dependencias.

En este documento se describe la problemática de seguridad que se vivió en el Mpio. de Acapulco, Gro. México. Durante el 2012, haciéndose énfasis en la situación de Seguridad en las Escuelas y una alternativa para mejorar los tiempos de respuesta de Seguridad Pública para atender las situaciones de emergencia que se pudieran presentar en estas.

Dicho sistema está compuesto por 3 elementos básicos, el botón de pánico, un centro de procesamiento y una área de monitoreo

Palabras clave: Monitoreo, inseguridad, cámaras.

seguridad,

1.1.1 Aspecto Social Desde hace tiempo el tema de la seguridad pública está en el centro del debate de nuestra comunidad. En el ámbito social la seguridad y la justicia han pasado a ser objeto de análisis y crítica constantes, lo cual es lógico si recordamos que la seguridad pública es una de las exigencias más sentidas de la ciudadanía y necesita ser atendida de manera eficiente y oportuna por el Gobierno.

escuelas,

1. INTRODUCCIÓN Dado los altos índices de inseguridad en la ciudad de Acapulco, nos dimos a la tarea de desarrollar un sistema de monitoreo para las instituciones educativas públicas y privadas, a través de un botón de pánico, en tiempo real, primero en el municipio de Acapulco, para después abarcar más municipios e inclusive estados, lo que mejorará el tiempo de repuesta de los diversos cuerpos competentes, en caso de situaciones de emergencia.

La seguridad pública forma parte esencial del bienestar de una sociedad. Un Estado de derecho genera las condiciones que permiten al individuo realizar sus actividades cotidianas con la confianza de que su vida, su patrimonio y otros bienes jurídicos tutelados están exentos de todo peligro, daño o riesgo. Ante la realidad de un Estado que no cumple con una de sus principales funciones, la de suministrar seguridad, los ciudadanos tendrán que centrar todos, o gran parte de sus esfuerzos, en la defensa de sus bienes y derechos.

Este sistema cuenta con elementos de tecnología que hoy en día se consideran de uso cotidiano, lo cual reducirá el costo total en el momento de su implementación, tratando El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

A efecto de poder contar con una visión integral del problema que hoy en día constituye una de las exigencias más sentidas de la población, y reclama una solución pronta y eficaz por parte del Estado, es necesario remontarnos a la génesis del mismo y en primera instancia determinar cuáles son las razones por las que el hombre se ha organizado en comunidad.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

La respuesta a esta pregunta la encontramos en las agrupaciones más primitivas, donde se pone de manifiesto que una de las principales razones que llevan al hombre a 41

Tlamati, Número Especial 3 CICOM 2014

unirse con otros de su misma especie es una cuestión de seguridad.

del estado, además de que forma parte de la única zona metropolitana del estado, concentrado la mayor población de la misma. Es cabecera del municipio homónimo y uno de los principales destinos turísticos de México. Además de ser considerada la décima sexta metrópoli más grande del país y la vigésimo primera ciudad más poblada de México.

Mediante un acuerdo social, busca la defensa de los bienes que considera fundamentales para su sobrevivencia y posterior mente para su desarrollo como miembro de la comunidad. En años recientes hemos sido testigos de cómo se han incrementado los índices delictivos en nuestro país, por consecuencia la inseguridad en todos los niveles sociales está a la orden del día.

Según el Conteo de Población y Vivienda del año 2010, Acapulco cuenta con 789,971 habitantes distribuidos en las diversas localidades que integran el municipio. Sin embargo la cantidad de elementos encargados para la seguridad pública municipal han sido insuficientes para auxiliar en muchas cosas los incidentes más comunes como accidentes viales, asaltos, entre otros; por el tiempo que lleva desde el reporte a la aparición de la seguridad pública o protección civil.

Los secuestros, extorsiones, robos, por solo mencionar algunas de los males que aquejan a la sociedad han sobrepasado los sistemas digitales implementados que en cuanto a seguridad se refiere, por ende es necesario explorar otro tipos de opciones donde se puedan aprovechar los actuales desarrollos e inventos tecnológicos.

1.1.2 Aspecto económico La inseguridad nos cuesta a todos los mexicanos y nos cuesta mucho. El crimen inflige un costo a la sociedad no sólo en términos de desarrollo económico, inversión, y calidad de vida, sino también en términos de dinero, de lo que el gobierno gasta en su combate. Por lo tanto, es necesario conocer cuántos recursos públicos se destinan a este rubro y qué resultados se obtienen a cambio. Tal es el caso que para el 2012 la confianza de los inversionistas y turistas había decaído tanto que se podía notar en franquicias cerradas como Hard Rock y Hooters, el descenso de visitantes internacionales y nacionales, la perdida de eventos nacionales tales como el Tianguis Turístico[1] y la baja derrama económica en bienes raíces, siendo en una sola empresa SARE, una pérdida de $330.2 millones de pesos mexicanos [2].

Figura 1.-Robos 2011 y 2012 En el año de estudio 2012, se pudo apreciar un decremento comparación con 2011 en los índices de robo denunciados a las agencias de ministerios públicos [5], tal y como lo muestra en la Figura 1, debido la delincuencia encontró medios más fructuosos como el secuestro y la extorsión.

En un aspecto local, se podía observar, en las escuelas el descenso de la matrícula de estudiantes, debido a que en la mayoría de los casos los padres optaban por cambiar de ciudad de residencia; y en una enorme cantidad de comerciantes y establecimientos que mejor decidieron cerrar sus locales. Durante 2012 el Mpio. De Acapulco, Guerrero, destino $67,739,761.83 [3] pesos mexicanos a la Secretaria de Seguridad Pública, lo que habla del alto costo económico de la inseguridad en nuestra entidad. Del presupuesto total no hubo inversión en tecnología que mejorara los tiempos de respuesta de los cuerpos de seguridad. [4]

1.2.1 Análisis y problemática

Figura 2.-Secuestros 2011 y 2012

Acapulco de Juárez es una ciudad y puerto mexicano ubicado en el estado de Guerrero, en la costa sur del país, a 304 kilómetros de la Ciudad de México. Es la mayor ciudad del estado superando en gran medida a la capital

En la Figura 2 podemos apreciar el cambio significativo en los secuestros a diferencia del año anterior y estos son solo los denunciados a Agencias de ministerio público, y 42

Tlamati, Número Especial 3 CICOM 2014

de los no denunciados se especula que pueden ser más del doble [6].

Figura 5.-Robo con violencia 2012 Figura 3.-Homicidios 2011 y 2012

1.2.2 Seguridad en las Instituciones Educativas

En la figura 3 se muestra como el índice de homicidios en el puerto se mantuvo estable en lo mayor del año, pero al final despunto en el 2012[7]. De lo cual podemos ver el por qué el surgimiento de la necesidad de un mejor sistema de monitoreo.

La seguridad escolar se ha convertido en un asunto de principal importancia para educadores, estudiantes y ciudadanos; la que se hace necesaria a partir de la chocante serie de atentados con armas de fuego en los colegios, secuestros a estudiantes, profesores así como al personal administrativo. En esta atmósfera emocionalmente cargada, los administradores de los colegios deben luchar para alcanzar sus verdaderas necesidades de seguridad escolar sin desperdiciar sus escasos recursos en medidas que tal vez no tengan ningún resultado positivo. Durante los últimos años las escuelas públicas y privadas han tratado de implementar diversos programas con el fin de mantener la seguridad interna de las instituciones. Llegando a la necesidad de establecer paro de labores para que sus demandas sean atendidas por el gobierno.

1.2.2.1 Solución implementada no óptima Uno de los programas que se implementaron el año 2012 en el Mpio., de Acapulco fue el de mochila segura, pero el problema no radicaba en lo que pudieran ingresar los alumnos a las instituciones.

Figura 4.-Robo con violencia 2011 Un cambio muy significativo se muestra en la figura 4 y 5 donde los robos con violencia en los dos años estudiados, con un significativo y alarmante incremento en el número de casos y peor aún el dato que solo son los reportados a los ministerios públicos, y es bien sabido que ni la mitad de los casos llegan a ser declarados [8][9]. De las gráficas podemos observar como el robo de vehículos es el más recurrente, y en particular a vehículos particulares, con exceso de fuerza y en algunas ocasiones terminando en un secuestro exprés.

Otro de los programas implementados era escuela segura basada en el patrullaje por parte de los cuerpos de seguridad pública municipal y federal, que consistía en rondines periódicos cuya vulnerabilidad residía en el lapso del traslado entre instituciones, estos periodos eran aprovechados por la delincuencia organizada para llevar acabo secuestros o amedrentaciones. En septiembre del 2011 se empezaron a instalar los botones de pánico en las escuelas públicas del Mpio. deAcapulco [10], el cual funcionaba de la siguiente manera: 43

Tlamati, Número Especial 3 CICOM 2014

La plataforma electrónica donde estaba montado el botón de pánico que estaba conectado con un dispositivo de comunicación muy básico que usaba líneas telefónicas, se le programaba para que una vez presionado el botón, marcara un número telefónico específico y mandara unos tonos. La llamada era recibida por un modem conectado a una computadora en un Call Center de una Empresa Privada la cual prestaba el servicio de Enlace con la Seguridad Publica.

administración y de información y un sistema de monitoreo.

1.3.1.1 Botón de pánico El sistema de botón de pánico está conformado por un equipo Sistema de Vigilancia IP, que como característica indispensable cuenta con la opción de agregarle un botón de pánico que al ser presionado envía información a una dirección IP específica, el sistema además cuenta con un servidor de video el cual se puede accesar desde un explorador web, lo que permite visualizar en tiempo real lo que está pasando en el lugar del incidente.

Esta computadora mantenía un programa en ejecución que monitoreaba las llamadas de emergencia, una vez recibida la llamada de emergencia el sistema identificaba mediante los tonos un número de serie y lo mostraba en la pantalla, el operador de dicha computadora tenía que recurrir a una hoja de cálculo en Excel donde estaban almacenados los datos de todas las instituciones Educativas integradas al programa del botón de emergencia.

1.3.1.2 Servidor de cómputo para procesamiento El servidor de cómputo es el equipo donde se encuentra instalado el programa que se encargara recibir la alerta por parte del Sistema de Vigilancia IP.

En ese momento el operador se comunicaba vía teléfono a la central de seguridad municipal para brindarle la ubicación donde se había efectuado el siniestro.

1.3.1.3 Software para la administración de información El software que se encarga de la administración y despliegue de información está continuamente a la espera de alertas, este está conectado con una base de datos que cuenta con la información de donde el sistema IP de vigilancia fue previamente instalado. En la base de datos del sistema se almacena el número de la alerta, la hora en que la alerta fue emitida, el teléfono de lugar de la incidencia, la dirección, el nombre del responsable del lugar, la dirección IP desde donde se puede accesar de manera remota al Sistema de Vigilancia IP así como un Sistema de Geolocalización basado el Google Maps.

En promedio, los tiempos de respuesta fluctúan dependiendo de la disponibilidad y cercanía de protección civil o seguridad pública en el área, y en muchos casos no se tiene la información necesaria para atacar el problema.

1.3.1.4 Software para monitoreo El software es aplicación desarrollada en PHP, la cual es accesada desde una explorador web, la aplicación muestra a la persona encargada del monitoreo en el momento en que fue emitida la alarma toda información necesaria para atender el incidente, permitiendo reducir los tiempos de reacción a los cuerpos de seguridad pública.

Figura 6-Sistema de seguridad. En la figura 6, se muestra un esquema resumiendo el funcionamiento del sistema de seguridad instalado previamente en las escuelas.

1.3.1 Solución propuesta

2 Funcionamiento

La solución que se propone nace de la necesidad de mejorar los tiempos de respuesta de los cuerpos de seguridad pública para lograr una atención al delito de una forma rápida y expedita, teniendo como base las tecnologías informáticas más avanzadas y de bajo costo.

El momento es que se lleva a cabo la incidencia, el botón de pánico es presionado emitiendo la alerta, el Sistema de Vigilancia IP envía su código identificador al Software para la administración de la información el cual lo identifica, y obtiene toda la información de la base datos la cual es desplegada de manera inmediata por el software de monitoreo a la personada encargada del área, permitiendo de manera inmediata contactar a los cuerpos de seguridad pública brindándoles información de la dirección del incidente, su localización usando referencias

Este sistema cuenta con elementos que hoy en día se consideran de uso cotidiano, lo cual reducirá el costo total en el momento de su implementación, tratando de no afectar la situación económica de las dependencias. Dicho sistema está compuesto por 4 elementos básicos, el botón de pánico, un servidor de cómputo, software para la 44

Tlamati, Número Especial 3 CICOM 2014

particulares de la zona, así como comunicarles en tiempo real lo que está pasando como se muestra en la figura 7.

Cabe mencionar que la versatilidad y portabilidad del sistema de monitoreo en tiempo real permitiría su uso en otros sectores independientes del área educativa. El Sistema podría implementarse dentro del transporte público, en zonas residenciales, lugares de interés social, o cualquier lugar que necesite monitoreo para la atención a incidencias. 5 Referencias [1]La Jornada Guerrero, www.lajornadaguerrero.com.mx/2011/03/30/index.ph p?section=sociedad&article=004n1soc

Figura 7.- Alerta desplegada, con mapa e imágenes. [2].BusinessWeek, www.businessweek.com/articles/201203-15/acapulco-another-mexican-drug-war-casualty

Cabe señalar que la mejora más notoria es el acceso a la visión de lo que está aconteciendo en el lugar que se presentó la alerta, proporcionando información fundamental para poder atenderla, como que tipo de cuerpo de seguridad es necesario, así como si es necesario asistencias médicas.

[3], [4].Informe anual de evaluaciones 2012, Direccion General de Politicas y Programas De Seguridad Pública, páginas 15 y 16. [5], [6], [7], [8], [9].Secretariado Ejecutivo del Sistema Nacional de Seguridad Pública, Estado de Guerrero, Mpio. De Acapulco de Juárez. http://www.estadisticadelictiva.secretariadoejecutivo.gob. mx/mondrian/testpage.jsp?query=delito_municipal_gl obal

3 Resultados El sistema se comparó funcionando con el sistema de Botón de Pánico actual, el Monitor en Tiempo Real genero la alerta en 3 segundos, desplegando un mapa con la ubicación de donde esta se generó, datos de contacto y una pantalla con visión de las cámaras instaladas para el monitoreo en tiempo real del lugar; su competidor el Sistema de Botón de Pánico genero la alerta en 20 segundos, mostrando en pantalla un código hexadecimal, para cotejarlo manualmente con una base de datos donde se encuentra la información del lugar de donde se generó la alarma.

[10].El Universal, www.eluniversal.com.mx/estados/82007.html

6 Bibliografía Tesis “Sistema de Monitoreo en Tiempo Real” por Gerardo Cabrera Hernández y Antonio González Rivera, Universidad Americana de Acapulco, Octubre, 2014.

De estas pruebas pudimos constatar la amplia ventaja en respuesta que tiene nuestro sistema sobre sus competidores, además de los beneficios a futuro que pueden añadirse al mismo.

Manual de PHP www.php.net/manual/es/index.php

4 Conclusiones La implementación del Sistema de Monitoreo en Tiempo Real mejoraría notablemente los tiempos de respuesta de los cuerpos de seguridad pública para la atención de las incidencias en las escuelas, lo que crearía un mejor ambiente de seguridad para los estudiantes y por consecuencia creemos que disminuiría los índices de criminalidad que aquejan el sector educativo.

Manual de Mysql www.dev.mysql.com/doc/refman/5.0/es/ Manual de jQuery www.librojquery.com/ Manual de PHPRunner www.xlinesoft.com/phprunner/docs/

45

Tlamati, Número Especial 3 CICOM 2014

HEIMDAL: Red de monitoreo colaborativo basado en sistemas multi-agente para aplicaciones de misión critica Katterine Rodriguez Garzón

Yeismer C. Espejo Bohorquez

Estudiante de Ingeniería en Especialista en Ingeniería en Software Telemática Universidad Distrital Francisco José Universidad Distrital Francisco José de de Caldas Caldas 3112306826 3142541536 [emailprotected]

Miguel A. Leguizamon Paez Especialista en Gerencia de Sistemas Informáticos Universidad de Boyacá 3106987623

[emailprotected]

[emailprotected] RESUMEN

esquema de soporte convencional y una red de monitoreo colaborativo.

El avance tecnológico del siglo XX y especialmente del siglo XXI, ha trastocado la forma en cómo se administra, almacena y se accede a la información, cuanto más sistemas se desarrollan para compartir o publicar información, mayor es el esfuerzo y la inversión para lograr mantener estos servicios disponibles, un claro ejemplo de ello son las compañías que cuentan con aplicaciones para administran información en tiempo real.

Palabras Claves Sistema multi-agente, monitoreo, aplicaciones de misión critica, intérprete de comandos Shell.

1. INTRODUCIÓN

Las empresas no solo se enfrentan al almacenamiento de grandes bodegas de datos, sino a un incremento en la demanda y en sus costos operativos. Como resultado, la inversión en equipos de soporte aumenta para mantener accesibles dichos sistemas y cumplir con el objetivo misional de la compañía. Dado que las áreas de soporte actúan generalmente en forma reactiva y, en la mayoría de los casos, se carece de una visión en tiempo real de las condiciones del sistema, el presente proyecto encara el desafío y propone como una alternativa de monitoreo HEIMDAL basado en sistemas multi-agentes (SMA) que permita dar a conocer el estado actual de las aplicaciones de misión critica en sistemas GNU/LINUX.

La rápida evolución de los negocios apoyada de las nuevas tecnologías de la información han cambiando la forma en la cual las empresas presentan y administran su información, esto genera que la industria tecnológica e informática en general avance de manera significativa, potenciando la forma de hacer negocios. Con el pasar del tiempo se busca acceder a la información de forma rápida y continúa, por tal motivo en el mundo de los negocios actualmente se habla de sistemas de misión crítica cuando la no disponibilidad total o parcial de estas aplicaciones impacta de manera significativa los resultados del negocio.

En este sentido, HEIMDAL además de informar el estado actual de los sistemas monitoreados, hace uso de cloud computing y Representational State Transfer para alertar al equipo de soporte cuando este se encuentre fuera de los umbrales permitidos. Esta gestión inteligente de monitoreo marca la diferencia entre un

En las organizaciones la prioridad la tiene la misión empresarial y todas las decisiones que se toman giran en torno a que está se lleve a cabo, con lo cual las herramientas tecnológicas en las que se apoya la misión empresarial son de vital importancia, por tal razón se fijan unos niveles de servicio mínimos que deben mantenerse para que las estas aplicaciones no afecten la evolución de los negocios.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

El presente proyecto plantea un sistema de monitoreo orientado hacia los servicios de misión critica, tomando como base tecnológica la implementación de un sistema multi-agente, donde cada agente se encarga de monitorear los niveles de disponibilidad de cada servicio dentro de un ambiente distribuido.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

46

Tlamati, Número Especial 3 CICOM 2014

2. MODELO DE ORGANIZACIÓN El SMA está compuesto por dos agentes, el agente supervisor y el agente director, inicialmente se definen los objetivos a cumplir para cada uno de ellos, el agente supervisor está orientado a administrar las tareas necesarias para mantener el sistema de misión critica en línea, se encarga de informar el estado actual del servidor, reportar las alarmas que han sobrepasado los umbrales promedio del sistema y finalmente debe ejecutar las tareas necesarias para normalizar el servicio, el agente director por su parte es quien gestiona las actividades realizadas en cada uno de los servidores, este debe vincular los agentes a cada uno de los servidores a monitorear, asignar las tareas de monitoreo a los agentes supervisores, desvincularlos cuando el cliente lo decida e informar al cliente las alarmas reportadas por los agentes supervisores, además de inferir de la base de conocimiento las acciones a tomar para restablecer el servicio. Con base en los objetivos definidos para el sistema son asignados los roles y los comportamientos, que definen la manera de proceder de cada agente, y se asigna cada rol a un agente especifico, con lo cual se establece los objetivos que debe cumplir, las tareas que tienen que realizar para lograr dichos objetivos. Como resultado el agente es capaz de percibir del medioambiente por medio de los sensores: que recursos debe tener disponibles, así como en qué momento tiene que establecer una comunicación con el entorno para desarrollar una tarea específica.

Figura 1: Organización del Sistema

Finalmente se ofrece una visión de las relaciones existentes entre las entidades activas (agentes y roles), las pasivas (aplicaciones y recursos) y los elementos que proporcionan la funcionalidad del sistema (flujos de trabajo y tareas). Se observa una estructura general del sistema, en la cual la interfaz de usuario se subscribe como miembro de un rol del sistema que se encarga de la comunicación con el cliente y es la herramienta por la que se gestionan los servicios, el sistema de dirección se encarga de gestionar, asignar, evaluar y reportar las anomalías presentadas por los servidores, y finalmente se cuenta con un grupo de monitoreo el cual hace seguimiento al estado de los servicios.

Los componentes utilizados para construir el sistema son: el MobileHeimdal para el artefacto HeimdalMobile que es él utilizado por el cliente desde su dispositivo móvil, el AppwebHeimdal-war y AppwebHeimdal-ejb para el artefacto desplegado en el servidor de aplicaciones para la gestión desde el centro de computo del cliente, el AgentProxyHeimdal para la comunicación con el SMA, el AgentDirectorHeimdal utilizado en el sistema central para la administración de los agentes remotos y finalmente el AgentSupervisorHeimdal que se ubica en cada uno de los servidores a monitorear por el cliente.

3. DIAGRAMA DE DESPLIEGUE

El proceso de intercambio de información entre los dispositivos móviles y el servidor de aplicaciones se hace por medio de (GCM) Google CloudMessaging for Android, que es un servicio disponible en la plataforma de google para realizar intercambio de datos desde el servidor a los dispositivos, con el uso de este servicio se gestionan todos las colas de mensajes enviados desde el servidor y la entrega a los dispositivos móviles.

El Diagrama de Despliegue modela la arquitectura en tiempo de ejecución de un sistema. Esto muestra la configuración de los elementos de hardware (nodos) y cómo los elementos y artefactos del software se trazan en esos nodos. El sistema está compuesto por unos artefactos en java para la administración del sistema por el cliente, estos artefactos son: un artefacto web llamado AppWebHeimdal el cual está desplegado en un servidor de aplicaciones web GlassFish, un artefacto HeimdalDb que está desplegado en un motor de base datos PostgresSql y un artefacto HeimdalMobile que está desplegado en un celular con plataforma Android. También existen unos artefactos definidos en Jade para la interacción de sistema de agentes, estos artefactos son: un artefacto AgentProxy el cual se encarga del intercambio de mensajes entre en SMA y el sistema de administración del cliente, un artefacto Agents en el cual se despliega el SMA.

4. BASE DE CONOCIMIENTO A diferencia de una Base de Datos en la cual solo se puede almacenar hechos representados en las tuplas de cada una de las tablas, la Base de Conocimiento sirve para almacenar un sistema de reglas por medio del cual se puede cambiar la relación entre los hechos. Los hechos que se almacenan en una base de datos se organizar por categorías, a deferencia de la base de conocimiento en la cual las ideas son organizadas y reorganizadas cambiando las relaciones entre los datos y con datos nuevos que lleguen a la base.

47

Tlamati, Número Especial 3 CICOM 2014

5. ONTOLOGIA Una ontología para el sistema de agentes es una especificación conceptual del lenguaje de comunicación entre los agentes y de forma directa con la semántica de los mensajes, en la que se añaden los esquemas que definen la estructura de los tipos de predicados, acciones y conceptos relevantes en el dominio. En términos del presente proyecto, se cuenta con dos ontologías, una llamada ontología de monitoreo y otra llamada ontología de gestión.

Figure 3: Estructura de la Ontología Ontología de monitoreo: Esta ontología permite la comunicación entre el agente supervisor y el agente director con el fin de lograr el objetivo fundamental del proyecto que corresponde al monitoreo de los servidores. Dentro de los principales mensajes, encontramos:

Figure 2: Modelo de Despliegue En lógica, especialmente en la lógica matemática, una regla de inferencia es un esquema para construir inferencias válidas. Estos esquemas establecen relaciones sintácticas entre un grupo de fórmulas llamados hechos y una aserción llamado conclusión, En términos generales el objetivo de una regla es modificar el contenido de la memoria de trabajo, esto se consigue normalmente adicionando, borrando o modificando uno o más hechos. El espíritu de la programación basada en reglas exige que, en la medida de lo posible cada regla represente una inferencia básica completa. En otras palabras ninguna regla puede preceder de otra.

La asignación y la denegación del servidores de aplicación y el motor de base de datos en el sistema de monitoreo HEIMDAL.

Reporte del estado actual del servicio.

Reportar alarmas.

Ontología de gestión: Esta ontología permite la comunicación entre el agente supervisor y el cliente, la cual tiene como objetivo la gestión del servidores vinculados al sistema de monitoreo. Los mensajes de esta ontología están orientados a:

Para el caso de estudio el sistema tiene la responsabilidad de sugerir una decisión en el momento de presentarse una incidencia en el sistema. El agente director toma el reporte enviado por el Agente Supervisor y lo representa como un hecho valido para la base de conocimiento, este hecho está relacionado con una serie de reglas de inferencia a partir de las cuales se llega a una conclusión que es la que se sugiere al usuario, y es el usuario quien tiene la potestad de llevar a cabo dicha acción para solucionar la alarma presentada en el sistema.

La asignación y la denegación del servidores de aplicación y el motor de base de datos en sistema de monitoreo HEIMDAL.

La asignación y la denegación del las listas de chequeo respectivas al los servidores de aplicación y el motor de base de datos.

Asignación reportadas.

de

tareas

para

mitigar

las

alarmas

6. SHELL

Para centralizar la toma de decisiones y el acceso a la base de conocimiento este proceso solamente lo realiza el Agente Director, de tal manera que en la toma de decisiones los Agentes Supervisores solamente actúan como sensores del Agente Director para poder percibir incidencias presentadas en el entorno. Así mismo es el Agente Director el único que puede modificar el estado de la base de conocimiento.

El kernel de GNU/LINUX, como su nombre indica, el núcleo (kernel) de un sistema operativo es el corazón con el cual puede funcionar. Es el núcleo de software que gestiona los recursos del ordenador: se comunica con los dispositivos y aplicaciones instaladas, administra la memoria adecuadamente, reparte tiempo de procesamiento para todos los programas, se comunica con los 48

Tlamati, Número Especial 3 CICOM 2014 dispositivos de almacenamiento para guardar archivos, etc. [2]. El medio de comunicación entre el kernel y el usuario es un intérprete de comandos Shell.

Shell

0,834

Espacio en disco de la base de datos

Cada servidor (Servidor de aplicaciones web ó motor de base de datos) cuenta con un checklist que corresponde a los atributos a analizar durante el proceso de monitoreo, distribuidos de la siguiente forma: Motor de base de datos (MBD):

2347,687

Estado del performance del MBD

0,0321

Estado del servicio del MBD

0,3151

Estado del SA

0,2919

Estado del performance SA

0,06652

Bajo los resultados obtenidos, podemos mencionar:

Número de usuarios conectados a la base de datos

Los tiempos de consulta de número de usuarios son datos con pequeñas variaciones de tiempo.

Consumo de cpu y memoria (performace) Disponibilidad del servicio

Los tiempos del estado del servidor y el performance del mismo, si son dependientes de las condiciones de memoria y cpu con los que se encuentre la maquina en la cual están alojados dichos servicios.

Consumo de espacio en disco •

Tiempo ms

Número de usuarios de la base de datos

Bajo estas premisas y considerando que el sistema de monitorio se realizara bajo sistema operativo GNU/LINUX, específicamente las distribuciones de Debian y Fedora, el Shell representa la principal herramienta para conocerle estado de los servidores.

Medición de tiempos de ejecución del Shell

Servidor de aplicaciones(SA): Consumo de cpu y memoria (performace)

El tiempo de respuesta del shell con respecto al espacio en disco de la base de datos, está directamente relacionado con el tamaño de la base de datos, es decir, a mayor volumen pueden tardar algunos milisegundos (ms) adicionales.

Disponibilidad del servicio Por lo tanto se genera un Shell según el sistema operativo, el servidor y el checklist que se desea conocer. Como parámetro de diseño, todos los Shell retornar un JavaScript Object Notation (JSON) que cuente la estructura de los objetos de la ontología definida para la comunicación entre los agentes.

Consolidado de tiempo de respuesta del sistema multi-agente

El usuario se comunica con la Interfaz web, esta interfaz por medio del proxy se comunica con el contexto donde se ejecutan los agentes (entorno Jade), luego el agente director atiende las solicitudes del usuario y designa el monitoreo al agente supervisor correspondiente, bajo la misma línea de comunicación se realizan los mensajes que van desde el agente supervisor al cliente.

7. ENTORNO DE PRUEBAS Para el desarrollo de las pruebas, se plantea un entorno en red controlado compuesto por dos maquinas reales, una maquina virtual y una tablet, que se encuentran distribuidas de la siguiente forma:

Los resultados obtenidos entre la comunicación del agente supervisor y el agente director son:

Maquina real 1: Cuenta con un sistema operativo Ubuntu y allí se ubica la aplicación web bajo el servidor de aplicaciones Glassfish 4 y el entorno Jade. Maquina real 2: Cuenta con un sistema operativo Debian en la cual se encuentra la base de datos Postgres y el servidor de aplicaciones web Glassfish.

Mensaje Registro del agente supervisor

Maquina virtual 1: Cuenta con un sistema operativo Fedora, en el cual se encuentran la base de datos Mysql y el servidor de base de datos Jboss. Tablet: se cuenta con un sistema operativo Android y la aplicación Heimdal Mobile. Además del anterior entorno, fue necesaria la creación de pequeños proyectos que tenían como objetivo generar carga y uso de los servidores de aplicaciones y las bases de datos, conjuntamente es importante mencionar que todos las maquinas deben pertenecer a una misma red. En este esquema se realizaron principalmente dos pruebas que fueron:

Request (pqt/sg)

Response (pqt/sg)

123

68

Reporté de alarma

228

45

Informe de estado

456

78

Vinculación del servidor

318

23

Retirar servidor

342

33

Asignación de tarea

259

38

Los resultados obtenidos entre la comunicación del agente director y el cliente son: Mensaje

49

Request (pqt/sg)

Response (pqt/sg)

Reporté de alarma y sugerencias

28

468

Informe de estado servicio

26

223

Vinculación del servidor

329

21

Tlamati, Número Especial 3 CICOM 2014 Retirar servidor

45

26

Asignación de tarea

206

35

Mexico. [On Line]. 2005. Avaliable: http://juliorestrepo.files.wordpress.com/ 2011/04/monitoreo.pdf. [2] Baig Viñas, Roger. Aulí Llinás, Francesc. Sistema Operativo GNU/Liunx Basico (1da Ed.). Fundació per a la Universitat Oberta de Catalunya. Barcelona, Spain: Eureca Media S.L. 2003.

Al dar una mirada atrás, es claro que los mensajes de tipo request entre el agente director y el agente supervisor envían mas (pqt/sg) paquetes por segundo que los mensajes de tipo response, con una media de 287,66 con respecto a 47,5 paquetes por segundo, esta deducción es consecuente dado que los mensajes de tipo request en su gran mayoría reportan la configuración individual de cada servidor con sus respectivas lista de chequeo.

[3] Cheun, D. W. Lee, H. M. Dong Kim, S. An Effective Framework for Monitoring Service-based Mobile Applications. 7th IEEE International Conference on EBussines Engineering. 2010. [4] Fuentes Fernandez, R. Gomez Sanz, J.J. Pavon, J.J. Integrating AgentOriented Methodologies with UML-AT. International Joint Conference on Autonomous Agents and Multiagent Systems. 2009.

Por otro lado los mensajes request y response entre el agente director y el cliente, cuenta con un media de 126,8 y 158,2 paquetes por segundo respectivamente, de lo cual podemos decir que la tasa de mensajes response tiene un mayor valor, dado que los reportes, alarmar y sugerencias cuentan con más contenido que el resto de los mensajes.

[5] Fuentes Fernandez, R. Gomez Sanz J.J. Pavon, J.J. Activity Theory for the Analysis and Design of Multi-agent Systems. Agent-Oriented Software Engineering. 2003.

En general, el tiempo de respuesta del sistema de multi-agente es inferior a un segundo, lo que permitiría ante una situación de alarma conocer su estado en un tiempo significativamente muy pequeño.

[6] García Magarino, I. Fuentes Fernandez, R. Gomez Sanz, J.J. INGENIAS development process assisted with chains of transformations. The 10th International Work conference on Artificial Neuronal Networks. 2009.

8. Conclusiones

[7] Gómez Sanz, J. Modelado de Sistemas Multi-Agente. [On Line]. Universidad Complutense de Madrid.2002.

Heimdal es una herramienta base para los grupos de soporte desde el punto de vista de monitoreo de las aplicaciones de misión critica por medio de una red colaborativa de agentes de software.

[8] Gómez Sanz, J. Metodologías Para el Desarrollo de SistemasMulti-Agente. [On Line]. Universidad Complutense de Madrid. Inteligencia Artificial. Revista Iberoamericana de Inteligencia Artificial. N.18.p 51,67. 2003.

Los resultados del proyecto nos permiten evidenciar que existe un mayor control de los servidores realizando el seguimiento de forma automática a través del SMA bajo un esquema colaborativo, donde es posible dedicar un recurso de tiempo completo al monitoreo de un servidor especifico, lo que facilita el gran medida la gestión del mismo.

[9] Marchette, David. J. Statistics For Engineering And Information Science. Computer intrusion Detection And Network Monitoring. New York USA: Springer. 2001. [10] Nilsson. N.J. Artificial Intelligence A New Synthesis. Madrid, Spain: Mc Graw Hill.2001. [11] Pajares Martinsanz, G. Santos Penas, Matilde. Inteligencia Artificial e Ingenieria de Conocimiento. Madrid Spain: Alfaomega.2006.

Además teniendo en cuenta que el reporte de la información entre los agentes y el cliente toma unos pocos segundos proporciona una mayor eficiencia en los tiempos de identificación y localización de la alarma.

[12] Russell, S.J. Norvig, P. Inteligencia Artificial un Enfoque Moderno. (2da Ed.). Madrid, Spain: Pearson Education S.A.2004.

Finalmente es importante mencionar que el campo de acción bajo los parámetros de monitoreo y control abren grandes brechas para la evolución y mejora de proyectos como esté, donde es posible no solo informar el estado de los servidores sino llegar a determinar el comportamiento de un servidor especifico a partir de las incidencias reportadas y gestionar el servició de forma autónoma por el sistema de agentes.

[13] Urraza Taverna, J. E. Utilizacion de agentes inteligentes dentro de un ambito de simulacion microscopica de Trafico Autonomo. [On Line].Paraguay: Universidad Catolica Nuestra Senora de Asuncion. 2001. Available: http://www.jeuazarru.com/docs/Libro de Tesis.pdf

9. REFERENCIAS [1] Altamirano Vicente, C. A. Seguridad perimetral: monitoreo de recursos de red. Universidad Nacional Autonoma de

50

Tlamati, Número Especial 3 CICOM 2014

Búsqueda semántica de objetos de aprendizaje Noé Arcos Muñoz

Luis Antonio Castro R

Rocío Rodríguez Guerrero

Universidad Distrital Bogotá, Colombia

Universidad Distrital Bogotá, Colombia

Universidad Distrital Bogotá, Colombia

[emailprotected]

[emailprotected]

[emailprotected] .co

RESUMEN

KEYWORDS: Ontology, semantic search, virtual object, accessibility.

Los objetos de aprendizaje permiten apoyar la enseñanza en entornos de educación virtual, en este tipo de ambientes educativos para hacer una gestión eficiente, su reutilización, consulta, accesibilidad e interoperabilidad son de vital importancia. Este artículo propone el diseño de un modelo ontológico que facilite su búsqueda de forma semántica.

1. INTRODUCCIÓN En la actualidad las Tecnologías de la Información y la Comunicación (TIC) se utilizan en procesos educativos, con el fin de apoyar y generar nuevos escenarios que permiten establecer nuevos entornos de enseñanza aprendizaje, acompañados por lo general de elementos multimediales, hipertextuales, hipermediales y de trabajo colaborativo entre otros1. El diseño de Objetos de virtuales de aprendizaje para entornos virtuales promueve en el estudiante el aprendizaje de un dominio específico del conocimiento.

ABSTRACT Learning objects allow support teaching in virtual education, in this type of educational environments for efficient management, reuse, consultation, accessibility and interoperability are vital. This article proposes the design of an ontological model that facilitates semantic search form.

El almacenamiento de Objetos de aprendizaje se realiza en repositorios, estos son sistemas software que permiten almacenar recursos educativos y/o sus metadatos, pero la existencia de diferentes definiciones de objeto de aprendizaje limita las funcionalidades de los mismos.

PALABRAS CLAVES: Ontología, búsqueda accesibilidad.

semántica,

objetos

virtuales, En este ámbito, las tecnologías relacionadas con la Web Semántica desempeñan un importante rol para el soporte de un modelo sólido que cumpla con los nuevos requisitos de flexibilidad2.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

2. CONCEPTUALIZACIÓN 2.1 La Web Semántica apoyada en la definición de Ontologías La web semántica es una nueva tendencia para la web, que incorpora las descripciones explicitas del significado (valor semántico) y para ellos se ha apoyado en extensiones XML (XML SCHEMA, RDF o RDF SCHEMA). Se trata, pues, de añadir información adicional con una estructura que pueda ser entendida por los computadores quienes por

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

51

Tlamati, Número Especial 3 CICOM 2014 Methontology 6 que ha sido desarrollada por el Grupo de Ingeniería Ontológica de la Universidad Politécnica de Madrid. Esta metodología permite construir ontologías en el nivel de conocimientos, y tiene sus raíces en las actividades identificadas por el proceso de desarrollo de software propuesto por la organización IEEE 7 y en otras metodologías de ingeniería de conocimientos8. Methontology proporciona un orden específico de actividades, sobre cómo llevar a cabo el desarrollo de la ontología. Las actividades que propone son: especificación, conceptualización, formalización, implementación y mantenimiento, tal y como se muestra en la figura 2, que muestra el ciclo de vida del desarrollo de una ontología basada en prototipos evolutivos.

medio de técnicas de inteligencia artificial estarían en capacidad de emular y mejorar la obtención de conocimiento hasta el momento reservada a las personas. Se pretende entonces dotar de significado a las páginas web, y de ahí el nombre de web semántica. Las ontologías representan una de las piezas claves en la construcción de la web semántica pues permiten adicionarle semántica al contenido de dominios específicos y realizar inferencias sobre ellos. Las ontologías pueden ser definidas con extensiones de la familia del RDF pero fundamentalmente se utiliza el lenguaje OWL (Ontology Web Language), la figura 1 esboza las tecnologías necesarias para desarrollar una arquitectura de este tipo.

Figura 2. Ciclo de vida del desarrollo de una ontología.9 Figura 1. Tecnologías y adecuación de datos para la web semántica.3

2.2 OBJETO DE APRENDIZAJE (OA)

Las ontologías proveen los mecanismos para organizar y almacenar ítems que incluyen esquemas de las bases de datos (BD), objetos de interfaz de usuario, y programas de la aplicación. La ontología en el sentido filosófico es la explicación sistemática de la existencia como es percibida por los humanos4. Según Guarino una ontología se define como: “un artefacto del software (o lenguaje formal) diseñado para un conjunto específico de usos y ambientes computacionales”5. Las ontologías permiten la inferencia y el chequeo de la consistencia de la información o de una aplicación dentro de un dominio, estableciendo una red de significados a través de la conversión y referenciación cruzada entre vocabularios (metas originales de las ontologías). Independientemente del ámbito en que se desarrollen, es necesario aclarar que la base para una ontología es la conceptualización junto con un vocabulario para referirse a las entidades de un dominio particular.

Los Objetos de Aprendizaje OA, fueron creados a partir de la Programación Orientada a Objetos y pueden ser definidos como “cualquier recurso con una intención formativa, compuesto de uno o varios elementos digitales, descrito con metadatos, que pueda ser utilizado y reutilizado dentro de un entorno e-Learning”10 . El contenido de los OVAs puede organizarse de diferentes formas para construir módulos, lecciones, tópicos, etc. Para lograr una mayor utilidad de los OA se requiere que estos objetos sean compatibles con diversos ambientes y sistemas de administración de aprendizaje, fáciles de migrar de una plataforma a otra, de forma tal que sea fácil de localizar, acceder, archivar y reutilizar el contenido. La satisfacción de estos requisitos proporciona una vida útil más larga a los materiales didácticos electrónicos y aumentando su valor11. Para tener una efectiva gestión concerniente a la reutilización, interoperabilidad, consulta y accesibilidad de los OVA resulta relevante establecer estándares apropiados para su diseño y descripción. El estándar más utilizado es SCORM que permite establecer un formato común para los objetos que se manejan dentro de un sistema e-learning de manera de posibilitar su intercambio con otros sistemas, siendo varios los Sistemas de Gestión de Aprendizaje o LMS (Learning Management System), capaces de utilizar objetos de aprendizaje bajo este

2.2 Methontology La metodología debe tener como criterios permanentes la integralidad, la cohesión, la pertinencia y la coherencia; dado que las teorías vienen de distintos enfoques, es necesario estar en permanente actitud relacional, con el fin de conservar y sostener el proceso de investigación sin obstrucciones; de esta forma se plantean para el desarrollo de la presente investigación la metodología de 52

Tlamati, Número Especial 3 CICOM 2014 relaciones entre las clases y subclases que a su vez heredan a las clases jerárquicas, es importante definir el dominio y el rango de la propiedad.

estándar, algunos de código abierto son Atutor, Dokeos, Moodle, Sakai. Para que los objetos de aprendizajecumplan con el estándar SCORM,deben ser empaquetados bajo el lenguaje XML12. 2.3 PROTEGE, JENA Y SPARQL Para este proyecto se utilizó Protégé 3.5 que es un editor libre de código abierto, contiene un sistema de adquisición de conocimiento, especialmente para la creación de ontologías. Protégé es un framework para el cual otros proyectos sugieren o utilizan plugins. Fue desarrollada en Java y usa fuertemente Swing para crear su compleja interfaz.

Figura5. Propiedades Object.

Para la ejecución de las consultas semánticas se requiere el uso de Sparql (lenguaje de consulta sobre RDF) y Jena que vienen integrados en esta versión de Protégé. Jena que es un Framework desarrollado en Java que permite manipular metadatos para la utilización en la Web Semántica. 3.

Las propiedades Datatype, relacionan un sujeto con un XML Schema Datatype value o un literal RDF, definimos 8 (ver figura 6) pero a medida que se siga explorando la ontología pueden ir surgiendo más, al igual que las propiedades de tipo Object se debe definir un dominio y un rango, pero el rango se define si este es de tipo int, string, float, entre otros.

DISEÑO E IMPLEMENTACION

Para el diseño y la implementación de la ontología se trabajó con Protégé, Jena y SPARQL. Lo primero que se realizo fue relacionar un listado de términos que consideramos importantes para el desarrollo de la ontología, con lo cual se definió una clase y cuatro subclases, estas contienen dentro clases jerárquicas, como se demuestra a continuación.

Figura 6. Propiedades Datatype. Las propiedades de Annotation permiten realizar una anotación o una descripción donde sea necesaria. Además debemos crear reglas de restricción o axiomas, estos se declaran sobre relaciones que deben cumplir los elementos de la ontología.

Figura 3. Modelo Ontologico General

Luego de tener todo lo anterior procedemos a crear instancias como se observa en la figura 7 y 8, se utilizan para incorporar objetos determinados de un concepto, para esto se requiere una clase jerárquica, una instancia de clase y colocar los valores de las propiedades, como por ejemplo Ecuaciones diferenciales.

Luego se procedió a definir las propiedades de las clases, subclases y clases jerárquicas en donde fueran necesarias. Hay tres tipos de propiedades diferentes en protege, object, datatype y annotation como se observa en la figura 4.

Figura4. Pestaña propiedades. Para nuestro caso definimos cuatro propiedades de tipo object (ver figura 5), las cuales se encargan de ejecutar 53

Tlamati, Número Especial 3 CICOM 2014

Figura 13. Resultado consulta dos La presentación semántica de los Ovas nos permite generar distintos tipos de búsqueda de acuerdo al estándar IEEE LOM obteniendo así resultados óptimos.

Figura 7. Pestaña de Instancias.

Aún se encuentran inconvenientes en el almacenamiento automático de las instancias del repositorio de datos en la base de datos. 5. Figura 8. Datos en instancias.

[1] Devendzic Vladan. Semantic Web and Education. Springer.2005.

Definida la ontología se procedió realizar consultas semánticas con el lenguaje de consultas de SPARQL, como se observa en la figura 9.

[2] RUSSEL, Stuart; NORVIG, Peter. Inteligencia Artificial, un enfoque moderno. Prentice Hall, 1995.Pág. 5. [3] Daconta, M. C; Obrst, L. J; Smith, K. T. (2003). The Semantic Web: A Guide to the Future of XML, Web Services, and Knowledge Management.

Figura 9. Consulta Sparql. 4.

REFERENCIAS

[4] Barchini G, Álvarez M, Herrera S y Trejo M. EL ROL DE LAS ONTOLOGÍAS EN LOS SI. Revista Ingeniería Informática, edición 14, mayo de 2007. Consultado Junio 10 de 2009 http://www.inf.udec.cl/revista/ediciones/edicion14/barchin i.pdf

RESULTADOS OBTENIDOS

Los resultados de las consultas de búsqueda fueron exitosos de acuerdo al modelo ontológico propuesto, ya busca objetos virtuales de aprendizaje de manera semántica como se muestra continuación.

[5] Guarino, N. “Formal Ontology and Information Systems”. Proceedings of FOIS ´98. National Research Council, LADSEB–CNR. 1998. Fecha de acceso: 25 de Febrero 2009 Disponible en

Figura 10. Consulta uno.

[6] Fernández-López M, Gómez-Pérez A, Juristo N (1997) METHONTOLOGY: From Ontological Art Towards Ontological Engineering. Spring Symposium on Ontological Engineering of AAAI. Stanford University, California, pp 33–40.

Figura 11. Resultado consulta 1.

[7] Gómez-Pérez A, Juristo N, Montes C, Pazos J (1997) Ingeniería del Conocimiento: Diseño y Construcción de Sistemas Expertos. Ceura, Madrid, Spain. Figura 12. Consulta dos.

54

Tlamati, Número Especial 3 CICOM 2014 [11] Leyva D., Tamayo D,. Repositorio Semántico de Objetos de Aprendizaje para la Reutilización de Contenidos Educativos. Memorias VI Congreso Internacional Universidad 2008. Universidad de Ciencias Informáticas. Issn: 0185 -1284

[8] IEEE (1996) IEEE Standard for Developing Software Life Cycle Processes. IEEE Computer Society. New York. IEEE Std 1074-1995. [9] Gomez-Perez, A Knowledge Sharing and Reuse. In the Handbook of Applied Expert System.CRC Press.1998

[12] XML :Extensible Markup Language, formato universal para documentos y datos estructurados en la Web.

[10] López, G. C. (2005): Los Repositorios de Objetos de Aprendizaje como soporte a un entorno e-Learning, Tesina doctoral, Universidad de Salamanca. Consultado:Mayo 4 de 2009. Disponible en: http://www.biblioweb.dgsca.unam.mx/libros/repositori os/.

55

Tlamati, Número Especial 3 CICOM 2014

Herramienta tecnológica para estimular la concentración de los niños de 4 a 6 años de edad en la localidad de Ciudad Bolívar de Bogotá. Andrés Camilo Morales Suarez

Rocío Rodríguez Guerrero

Universidad Distrital Bogotá, Colombia

Universidad Distrital F.J.C. Bogotá, Colombia

[emailprotected]

[emailprotected]

ability is an evolutionary process of transformation that allows the child to develop my abilities and skills acquisition through experience and learning. This article proposes the development of an educational game for mobile devices as a technological tool to stimulate the concentration of children 4-6 years old.

RESUMEN Un niño en su entorno encuentra información, estímulos y novedades, que le dificulta mantener la atención y concentración en las actividades realizadas. La capacidad cognitiva es un proceso evolutivo de transformación que le permite al niño ir desarrollando habilidades y destrezas, por medio de adquisición de experiencias y aprendizajes. El presente artículo propone el desarrollo de un videojuego educativo para dispositivos móviles como herramienta tecnológica para estimular la concentración de los niños de 4 a 6 años de edad. Palabras claves: Atención, concentración, capacidad estimulación, niños, videojuego educativo.

Keywords: Attention, concentration, cognitive ability, stimulation, children, educational game. 1 INTRODUCCIÓN Los niños de 4 a 6 años de edad están en pleno proceso de desarrollo de sus habilidades mentales, adquirir ciertas competencias y agilidades mentales es importante [1]. Estudios realizados por UNICEF muestran que los niños con coeficiente bajo es de un 26% mientras que el 4% son de coeficiente medio y el 1% son de coeficiente alto, esto es debido a la dificultad de concentración de los niños que se da en la mayoría de ocasiones porque la carga de estímulos que evita que los pensamientos se enfoquen, estudios realizados por expertos ha demostrado que cada vez es más común ver a niños que padecen de trastorno de déficit de atención e hiperactividad, los niños que padecen este problema se caracterizan porque no pueden focalizar su atención debido a que quiere responder a todos los estímulos que los rodean [2].

cognitiva,

ABSTRACT A child is in your environment information, incentives and news that makes it hard to maintain focus and El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

2 CONCEPTUALIZACIÓN 2.1 Estilos de aprendizaje básicos.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 24, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

Los estilos de aprendizaje básicos relacionados con los niños se dividen en: visual, auditivo, táctil y kinestésico, los cuales son aplicados desde la primera infancia y se

concentration on the activities undertaken. Cognitive

56

Tlamati, Número Especial 3 CICOM 2014 idea básica es superponer gráficos, audio y otros, a un ambiente real en tiempo real. El seguimiento de movimientos apoyados en marcadores dentro del campo de visión de las cámaras de computadores, dispositivos móviles o tablets son utilizados por esta tecnología, permitiendo tener un punto de referencia sobre el cual superponer las imágenes como se ve en la imagen 1 [7].

relacionan con las experiencias obtenidas a través de los sentidos [3]. El estilo auditivo permite a los niños procesar la información que obtienen al observar el lenguaje corporal y las expresiones faciales de las personas que los rodean, los niños que aprenden de forma visual cuentan con una gran imaginación y por lo general siempre piensan en imágenes. El estilo auditivo permite a los niños procesar información de forma auditiva, estos niños que aprenden de forma auditiva tienden a hablar sobre lo que oyeron y ser participativos en debates o discusiones, sin embargo los niños en ambientes ruidosos tiende a distraerse con facilidad. El estilo táctil permite a los niños aprender a través de actividades donde tienen que hacer uso de las manos, los niños que aprenden de esta forma se caracterizan por el gusto al arte. El estilo kinestésico permite al niño aprender a través de experiencias físicas [4].

Imagen 1. Marcador realidad aumentada

3 MÉTODOS O TÉCNICAS DE APRENDIZAJE

Las estrategias diseñadas con el uso de la realidad aumentada y otras herramientas tecnológicas influyen de manera positiva sobre los niños cuando su capacidad de procesamiento de la información mejora. [8]

El aprendizaje se refleja en situaciones en la que los niños responden a un ambiente, a estímulos sociales, emocionales y físicos para comprender nueva información que van adquiriendo constantemente. Las técnicas o métodos de aprendizaje son formas diferentes en las que se aplican de acuerdo a la problemática del niño que se ha de trabajar, por esto no podemos afirmar que consista en un sistema concreto y cerrado, pero se puede considerar como técnicas multidisciplinarias que ayuden a mantener la concentración, mejorar la memoria y encontrar la manera de motivar los niños en mejorar sus capacidades. Los tipos de técnicas o métodos que se trabajan en el aprendizaje y son aplicadas a niños como Kumon, susuki, Glenn Doman, Tomatis, son métodos o técnicas que dependiendo del caso se aplican los diferentes métodos mencionados. [5]

4 ANALISIS DE PRUEBA PSICOTÉCNICA EN UNA MUESTRA REPRESENTATIVA Para determinar el método y técnicas de aprendizaje a emplear en el videojuego móvil se aplicaron una serie de pruebas psicotécnicas a una muestra significativa de niños de 4 a 6 años del colegio Nicolás Gómez Dávila Ciudad Bolívar de Bogotá, en los grados prescolar y primero estos grupos de niños se encontraban entre los 4 y 6 años de edad. Se aplicaron 4 tipos de test teniendo en cuenta la asesoría del psicólogo profesional “Marta Estela Guerrero” en el área infantil. Para el diseño de los test se valoró la diferencia de grado escolar y el nivel académico de cada niño, los test tienen varias características los cuales permiten: • Ver que estilo de aprendizaje emplea cada grupo de niños. • Ver la capacidad de concentración.

3.1 Videojuegos como herramienta de aprendizaje La inclusión de los videojuegos como una herramienta tecnológica en el aprendizaje de los niños se ha vuelto motivo de estudio para la educación y formas estratégicas de incorporación en las TICs pensando en las grandes ventajas que pueden ofrecer estos entornos en espacios de enseñanza para los niños. El uso continuo de los videojuegos por niños obliga a aplicar una variedad de procesos de aprendizaje, jugar implica involucrar una gran serie de actividades cognitivas las cuales son recordar, poner a prueba una hipótesis, pronosticar y hacer planificación estratégica.[6]

Para la calificación de estos test se aplicó la metodología para niños de Kaufman (K-ABC), la cual permite tener una “medida de la habilidad cognitiva y los conocimientos académicos para niños entre 2 y 12 años de edad.”12 La metodología K-ABC cuenta con dos escalas principales, la primera es la escala de procesamiento mental y la segunda es la escala de conocimiento académico, para la calificación de los test se aplicó la escala de procesamiento mental, esta escala cuenta con dos sub escalas las cuales son procesamiento secuencial y procesamiento simultaneo. El procesamiento secuencial permite medir la habilidad del

3.2 Realidad aumentada tecnología de la percepción La realidad aumentada es una tecnología que maneja la percepción del ser humano e interactúa con la realidad. La

57

Tlamati, Número Especial 3 CICOM 2014 niño para resolver problemas cuyo elementos son presentados sucesivamente y el procesamiento simultaneo evalúa la habilidad para sintetizar la información necesaria para resolver los problemas presentados.[9]

aplicar realidad aumentada, el poder mezclar esta realidad con la realidad virtual, llamara la atención del niño y su concentración será mayor. Grafica 2. Resultados de concentración niños de 5 años

Las pruebas permitieron establecer que los niños hacían uso de los estilos de aprendizaje básico pero en especial el estilo de aprendizaje visual y el estilo de aprendizaje auditivo. Se concluyó que los niños de 4 a 5 años de edad a los que se les aplicó el test de concentración y de retención de memoria, tienen una capacidad de retención de información mayor que la de los niños de 6 años de edad y la concentración de los niños de rango de 4 a 6 años de edad se encuentra en el mismo nivel ya que en las pruebas que se aplicaron se evidencio que el porcentaje de niños con un alto grado de concentración es menor al 5% teniendo en cuanta la información recolectada.

El 28,26% de los niños de 6 años de edad, cuentan con un nivel de concentración medio, mientras que el 71,74% de los niños tienen un nivel de concentración bajo, como se puede observar en la gráfica 3.

El 56,52% de los niños que realizaron el test cuentan con un nivel de concentración medio, mientras que el 43.48% de los niños tienen un nivel de concentración bajo, como se puede observar en la Grafica 1.

Grafica 3. Resultados de concentración niños de 6 años

Grafica 1. Resultados de concentración niños de 4 años

La figura 1. Muestra los casos de uso definidos para la aplicación, que representan la funcionalidad del sistema. El 45,16% de los niños de 5 años de edad, cuentan con un nivel de concentración medio, mientras que el 54,84% de los niños tienen un nivel de concentración bajo, como se puede observar en la Grafica 2.

Para el desarrollo del videojuego con realidad aumentada se utilizó las librerías llamadas NIARTOOLKIT lo cual nos permite hacer la implementación de realidad aumentada a través de marcadores los cuales se toman como punto de referencia con las imágenes que se están utilizando en 3D, al aplicar este tipo de tecnología en el videojuego nos permite tener una realidad más aumentada a través de dispositivos móviles con SO Android como se ve en la imagen 2.

5 DISEÑO E IMPLEMENTACION DE LA APLICACION El desarrollo del videojuego como herramienta educativa con realidad aumentada se propuso con la siguiente motivación: permitir a los niños entre los 4 y 6 años de edad mejorar sus niveles de concentración.

La figura 2. Muestra el diagrama de actividades del uso definidos para la aplicación, que representan la funcionalidad del sistema del videojuego.

Teniendo en cuenta que los procesos en que los niños mejoran sus capacidades se relacionan con las actividades físicas y lúdicas (canciones, juegos), pues permiten mejorar sus habilidades mentales. Los estilos de aprendizaje aplicados en este video juego son: el táctil, el visual y el auditivo. Se propuso también 58

Tlamati, Número Especial 3 CICOM 2014 permitió mayor facilidad para poner a prueba el juego en el Colegio Nicolás Gómez Dávila Bogotá, Ciudad Bolívar. 7 REFERENCIAS [1]

Farnham-Diggory.(1983).”Dificultades aprendizaje”. España:Ediciones Morata, S.A.

de

[2] Unicef Cl Unicef Public Archivos Documento 256 Jugemos Corregido Pdf». Disponible en: http://0nulled.com/doc/pdf/download/www__unicef__c l--unicef--public--archivos_documento--256-Jugemos_corregido.pdf. [Accedido: 30-may-2014]. [3] Sara Chapman, «Estilos de aprendizaje de los niños», 09-abr-2009. Disponible en: http://www.abilitypath.org/espanol-1/learningteachingstyles/estilos-de-aprendizaje-de-los-ninos.html. [Accedido: 30-may-2014].

Figura 1. Casos de uso del videojuego 6 RESULTADOS OBTENIDOS

[4] Julio Cabero Almenara, «Tecnología Educativa. Diseño y Evaluación del Medio Vídeo - video.pdf». Disponible en: http://tecnologiaedu.us.es/tecnoedu/images/stories/vide o.pdf. [Accedido: 30-may-2014].

El uso de un videojuego permitió mejorar la capacidad de concentración de los niños realizando una prueba específica.

[5] Juan José Sánchez Ortiz, «Tipos de técnicas de aprendizaje infantil». [En línea]. Disponible en: http://www.enbuenasmanos.com/articulos/muestra.asp? art=818. [Accedido: 30-may-2014]. [6] Analia Segal, Piero Bona, Vanina Estévez, Gustabo Alvarez, «mt1videojuegos.pdf». Disponible en: http://postitulo.educ.ar/wpcontent/uploads/2014/01/mt1videojuegos.pdf. [Accedido: 30-may-2014]. [7] Santiago Bernal Betancourth, «¿Qué es la realidad aumentada? |Maestros del Web». Disponible en: http://www.maestrosdelweb.com/editorial/que-esrealidad-aumentada/. [Accedido: 30-may-2014].

Figura 2. Diagrama de actividad del videojuego

[8] Juan de Urraza, «Realidad Aumentada Realidad_Aumentada.pdf». [En línea]. Disponible en: http://www.jeuazarru.com/docs/Realidad_Aumentada.p df. [Accedido: 30-may-2014]. [9] Juan Antonio Amador Campos, Maria Forns Santacana, Teresa Kirchner Nebot, «Microsoft Word K-ABC.doc - 147.pdf». [En línea]. Disponible en: http://diposit.ub.edu/dspace/bitstream/2445/342/1/147. pdf. [Accedido: 30-may-2014].

Imagen 2. Ejemplo Realidad Aumentada con Dispositivo Móvil. La incorporación de tecnologías en la educación a través de móviles con realidad aumentada fomento el grado de interés por el tema propuesto en el proyecto lo cual 59

Tlamati, Número Especial 3 CICOM 2014

Herramientas de software libre para mejorar la aplicación de pruebas unitarias en la integración continua. Adriana I. de la Roca Ch.

Leticia Santa O.

Sandra Martinez

Instituto Tecnológico de Zacatepec Zacatepec, Morelos. Mexico. (+52) 7343431394

Instituto Tecnológico de Zacatepec Zacatepec, Morelos. Mexico. (+52) 7343431394

Instituto Tecnológico de Zacatepec Zacatepec, Morelos. Mexico. (+52) 7343431394

[emailprotected]

[emailprotected]

[emailprotected]

Laura Villavicencio G.

Boris Aranda B.

Miguel A. Delgado A.

Instituto Tecnológico de Zacatepec Zacatepec, Morelos. Mexico. (+52) 7343431394

Instituto Tecnológico de Zacatepec Zacatepec, Morelos. Mexico. (+52) 7343431394

Instituto Tecnológico de Zacatepec Zacatepec, Morelos. Mexico. (+52) 7343431394

villavicencio_2000@itzacatepec .edu.mx

[emailprotected]

[emailprotected]

Palabras clave

RESUMEN

Pruebas unitarias, integración continua.

Hoy en día las industrias de desarrollo de software están obligadas a mejorar la calidad en sus desarrollos. La implementación de estándares de calidad y pruebas de software permiten que la calidad mejore. El proceso de llevar acabo las pruebas de software puede resultar tedioso o insignificante para algunos desarrolladores. Para automatizar este proceso es necesario hacer uso de herramientas de software que permitan llevar acabo la ejecución de pruebas de manera continua. En esta investigación se aborda el análisis e implementación de las herramientas de software libre con el fin de mejorar la aplicación de pruebas unitarias dentro de la integración continúa en desarrollos Java.

1. INTRODUCCIÓN Históricamente, el desarrollo del software se enfoca en escribir código y probar líneas específicas de ese código. Muy poco se esfuerzan en determinar si ese código se adecúa a un sistema más grande. Las pruebas son vistas como un mal necesario para demostrar al usuario final que el producto funciona. [1] Existen diferentes tipos de pruebas de software, esta investigación se enfoca en las pruebas unitarias, las cuáles deben tener una mayor importancia en la etapa de pruebas, debido a que permiten que la etapa de integración sea más fácil de realizarse, además de asegurar la correcta funcionalidad del software.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

El proceso de llevar a cabo las pruebas puede resultar tedioso y costoso debido a que las empresas invierten en herramientas de software que solamente utilizan en la etapa final del desarrollo. En mayo del 2002 el NIST (National Institute of Standars and Technology) publicó un artículo en donde estima los diferentes costos que produce una inadecuada infraestructura para las pruebas de software. Basado en los desarrollados de software y estudios de usuarios, estimo que el costo anual por una infraestructura inadecuada era alrededor de los $22 a $59.5 billones de dólares. [1]

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

60

Tlamati, Número Especial 3 CICOM 2014 La importancia de utilizar herramientas de software en la integración continua para ejecutar las pruebas unitarias, es conocer la calidad de nuestro software durante el desarrollo del mismo, a través de los informes generados por las herramientas que utilizan diferentes métricas de calidad. Una métrica de calidad de acuerdo a IEEE “Standard Glosary of Software Engering Terms” está definida como una medida cuantitativa del grado al cual un elemento posee un atributo de calidad determinado. [2] Figura 2 Representación de la prueba unitaria de caja blanca.

En esta investigación se aborda el análisis de herramientas de software libre que permiten llevar a cabo la aplicación automatizada de pruebas unitarias dentro de la integración continua.

2.3

Propiedades de las pruebas unitarias

Según Roy Osherove [4], una prueba unitaria debe tener las siguientes propiedades:

2. PRUEBAS UNITARIAS Una prueba unitaria es una pieza de código escrita por un desarrollador, que prueba una pequeña área específica de funcionalidad del código. Usualmente en una prueba unitaria se pone a prueba a un método en particular, en un contexto en particular. Las pruebas unitarias se llevan a cabo para demostrar que una pieza de código, es decir, un método, realiza lo que el desarrollador piensa que debería hacer. [3] Las pruebas unitarias pueden dividirse en 2 categorías: pruebas de caja negra y pruebas de caja blanca.

Deber ser automatizada: Las pruebas unitarias se tienen que poder ejecutar sin necesidad de intervención manual. Esta propiedad posibilita que podamos automatizar su ejecución.

Deben ser repetibles: Las pruebas unitarias tienen que poder repetirse tantas veces como uno quiera. Por este motivo, la rapidez de las pruebas tiene un factor clave.

Cubrir la totalidad del código: Una prueba unitaria debe ser tan buena como su cobertura de código. La cobertura de código marca la cantidad de código de la aplicación que está sometida a una prueba. Por lo tanto, si la cobertura es baja, significara que gran parte de nuestro código esta sin probar.

Ejecución independiente: Las pruebas unitarias tienen que poder ejecutarse independientemente del estado del entorno y además ser independientes de otros componentes. La ejecución de una prueba no debe afectar a otra.

Relaciones simuladas: Las diferentes relaciones que puedan existir entre módulos deben ser simuladas para evitar dependencia entre módulos, esto se realiza con objetos mock.

Objetivo claro: Es importante conocer claramente cuál es el objetivo de la prueba y su funcionamiento. Esto sólo se consigue si se trata el código de pruebas como el código de aplicación.

2.1 Pruebas de caja negra En las pruebas unitarias de caja negra se comprueba el correcto funcionamiento de los componentes analizando las entradas y las salidas, verificando que el resultado sea el esperado.

3. HERRAMIENTAS DE CALIDAD DE SOFTWARE

Figura 1. Representación de la prueba unitaria de caja negra.

El objetivo principal de las pruebas unitarias es asegurar que el código que se ha programado cumple con la tarea establecida y contiene el mínimo de errores.

Hoy en día existe una gran variedad de herramientas de software que permiten realizar pruebas unitarias de forma automatizada. Las diferentes herramientas varían dependiendo el lenguaje de programación, el tipo de licencia, el tipo de prueba unitaria, es decir, caja blanca o caja negra. En esta investigación se abordan herramientas de software libre para la aplicación de pruebas unitarias y la generación de reportes con los resultados.

2.2 Pruebas de caja blanca En las pruebas unitarias de caja blanca se verifica la estructura interna del componente con independencia de su funcionalidad.

61

Tlamati, Número Especial 3 CICOM 2014 A continuación se presentan las herramientas de software libre que permiten mejorar la aplicación de pruebas unitarias en el proceso del desarrollo del software.

Última versión estable: 5.6 Checkstyle es una herramienta de desarrollo para ayudar a los programadores a escribir código Java que se adhiere a un estándar de codificación.[8]

3.1 JUnit Tipo de prueba: Funcional (caja negra) Tipo de licencia: Common Public License Lenguajes de programación: Java Sistema operativo: Multiplataforma Última versión estable: 4.11

Checkstyle permite comprobar, por ejemplo: • • •

JUnit es un simple framework para escribir pruebas repetibles. [5] El diseño de JUnit le permite reportar fallos o éxitos en los métodos en los que fue implementado. Para cada método JUnit ejecuta un caso de prueba, esto le permite ejecutar de una manera controlada las pruebas unitarias. JUnit dispone de los métodos Assert, los cuales le permiten comparar entre uno o más objetos los resultados generados con los resultados esperados. . El método será exitoso en caso de que el valor de retorno esperado sea el indicado para dicho método, o en caso contrario JUnit devolverá un fallo en el método correspondiente.

• •

• •

Javadoc comentarios para las clases, atributos y métodos Convenciones de nombres de atributos y métodos Limitar el número de parámetros de la función, las longitudes de línea Presencia de cabeceras obligatorias El uso de paquetes de las importaciones, de las clases, de los modificadores de alcance y de instrucciones de bloques Los espacios entre algunos personajes Las buenas prácticas de construcción de clase

3.4 FindBugs Tipo de prueba: Estructural (caja blanca) Tipo de licencia: GNU Lesser General Public License Lenguajes de programación: Java Sistema operativo: Multiplataforma Última versión estable: 2.0.3

3.2 PMD Tipo de prueba: Estructural (caja blanca) Tipo de licencia: BSD-style license. Lenguajes de programación: Java, C, C + +, C #, PHP, Ruby, Fortran, JavaScript, entre otros. Sistema operativo: Multiplataforma Última versión estable: 5.1

FindBugs al igual que PMD es una herramienta que realiza un análisis estático de código en busca de errores potenciales en programa escritos en código Java. FindBugs opera sobre el bytecode Java y no sobre el código fuente.

PMD es un analizador de código estático. Encuentra defectos comunes de programación.[7]

3.5 SonarQube El análisis estático del código es el proceso de evaluar el software sin ejecutarlo. El analizador estático de código, recibe un código fuente, lo procesa y arroja una serie de sugerencias. Estas herramientas incluyen, por un lado, analizadores léxicos y sintácticos que procesan el código fuente y, por otro, un conjunto de reglas que aplicar sobre determinadas estructuras.

Tipo de prueba: Estructural (caja blanca) Tipo de licencia: LGPL v3 Lenguajes de programación: Java, C#,C/C++,PL/SQL,Cobol,PHP, entre otros. Sistema operativo: Multiplataforma Última versión estable: 4.3

PMD tiene reglas de violación ya establecidas, las cuales pueden ser modificadas, eliminadas o pueden agregarse nuevas. La finalidad de utilizar una herramienta como esta recae básicamente en obtener facilidad de mantenimiento y de desarrollo en los proyectos, ya que permitirá a los desarrolladores encontrar código que pueda: o o o o o

SonarQube es una aplicación destinada para realizar pruebas de calidad de código. Esta herramienta permite hacer un análisis estático del código y mostrar los resultados en un ambiente gráfico comprensible. SonarQube integra a PMD, FindBugs y Checkstyle como analizadores de código. SonarQube es el lugar central para administrar la calidad de código, ofreciendo reportes visuales a través de proyectos y habilitando la reproducción de un análisis anterior para seguir las métricas de evolución. [10]

reducir el rendimiento. provocar errores en el software. complicar el flujo de datos. tener una excesiva complejidad. suponer un problema en la seguridad.

Sonarqube cubre los 7 aspectos de calidad de código: [11] • Arquitectura y diseño • Duplicaciones • Pruebas unitarias • Complejidad • Errores potenciales • Reglas de codificación • Comentarios

3.3 Checkstyle Tipo de prueba: Estructural (caja blanca) Tipo de licencia: Licencia Menor GNU General Public. Lenguajes de programación: Java Sistema operativo: Multiplataforma 62

Tlamati, Número Especial 3 CICOM 2014 1.- Los desarrolladores suben su código y sus pruebas unitarias de caja negra que son elaboradas con JUnit a un controlador de versiones (Subversión).

4. IMPLEMENTACIÓN DE PRUEBAS UNITARIAS DENTRO DE UN SERVIDOR DE INTEGRACIÓN CONTINUA.

2.- El servidor de Integración Continua (Jenkins) detecta los cambios en el repositorio y ejecuta el proceso de acciones pre configuradas, que corresponden al desarrollo del software.

4.1 Integración continúa La integración continua es una práctica de desarrollo de software en la cual los miembros de un equipo integran su trabajo frecuentemente, como mínimo de forma diaria. Cada integración se verifica mediante una herramienta de construcción automática para detectar los errores de integración tan pronto como sea posible (Martin Fowler,2006).

3.- El gestionador de proyectos (Maven) es el encargado de ejecutar las etapas que conlleva el desarrollo de un software, desde la compilación hasta el despliegue.

4.2 Arquitectura de un Servidor de Integración Continúa

5.- SonarQube guarda los resultados del análisis en una base de datos.

4.- Maven ejecuta una tarea de análisis de código con SonarQube.

Hoy en día la aplicación de pruebas unitarias puede realizarse de forma frecuentemente y automatizada, es decir, que las pruebas se cada cierto tiempo y continuamente

6.- Los resultados del procedimiento se muestran a los desarrolladores. El servidor de integración continua es el encargado de mostrar dichos resultados.

Para ello se requiere implementarse un servidor de Integración Continua con las herramientas de calidad de software anteriormente presentadas.

7.- Se libera la última versión del proyecto.

En la figura 3 se describe la arquitectura y el procedimiento que conlleva el desarrollo de proyectos utilizando un servidor de integración continua.

5. SITUACIÓN ACTUAL Dentro del Instituto Tecnológico de Zacatepec se está desarrollando un sistema de encuestas sobre plataforma Java. El sistema tiene como objetivo recaudar información de diversas actividades que se desarrollan para conocer la opinión del personal o estudiantes a través de una aplicación web. El proyecto se tomó de base para ser desarrollado utilizando la integración continua y aplicando las pruebas unitarias correspondientes. A continuación se presentan las herramientas de software que conforman la arquitectura de Integración Continua. Tabla 2 Herramientas de la arquitectura de integración continúa para el sistema de encuestas Herramienta de software Netbeans Jenkins Visual SVN Server Apache Tomcat Apache Maven JUnit SonarQube

Figura 1. Arquitectura del Servidor de Integración Continua

63

Tipo de herramienta Entorno de desarrollo integrado Servidor de Integración Continua Controlador de versiones

Versión utilizada 7.4 1.5 2.7.3

Contenedor de Servlets

7.0

Gestionador de proyectos Framework pruebas unitarias funcionales Analizador de código estatico

3.1 1.4 3.7

Tlamati, Número Especial 3 CICOM 2014 El proyecto se ha analizado varias veces durante este periodo, buscando identificar que cumpla con los requerimientos funcionales y que no presente en su estructura posibles errores.

Entre mayor cobertura, mayor parte de nuestro código cuenta con pruebas unitarias. Antes de ejecutar el segundo análisis se encontrada para su corrección.

Se han aplicado pruebas unitarias con el fin de asegurar que cada componente que se va realizando. El código de las pruebas unitarias funcionales es generado por Netbeans, el cual se apoya de JUnit para generar una plantilla de pruebas a través de una clase java. Es importante mencionar que en estos análisis aún no se contempla a los JSP y los servlets para la aplicación de pruebas unitarias.

notificó la falla

6. RESULTADOS En el primer análisis realizado se encontró que el 50% de los métodos elaborados presentaban un error funcional. En las pruebas estructurales no se encontraron errores, únicamente sugerencias hacia buenas prácticas en convenciones Java. A continuación se presentan los análisis generados de las pruebas unitarias en el servidor de integración continua.

Figura 5 Resultado del segundo análisis de pruebas funcionales del sistema de encuestas

El segundo análisis demostró que la prueba había sido pasada con éxito y hasta ese momento se aseguraba que todos los métodos cumplían con los requerimientos funcionales.

Figura 3 Resultado del primer análisis de pruebas funcionales del sistema de encuestas

Figura 6 Resultado del análisis estático de código por la aplicación SonarQube

El error se encontró en el método cerrar de la clase Conexión. El valor de retorno esperado para este método es TRUE, caso contrario al valor que retorno, debido a que se intentaba cerrar el objeto Resultset inicializado con un valor nulo.

Figura 7 Sugerencias mostradas por la aplicación SonarQube

En el tercer análisis realizado todas las pruebas funcionales pasaron exitosamente.

Figura 4 Cobertura de código en el sistema de encuestas Es importante conocer la cobertura de nuestro código debido a que es una métrica para saber cuál es el porcentaje de nuestro proyecto que está sometido a una prueba unitaria.

64

Tlamati, Número Especial 3 CICOM 2014 [2] IEEE Computer Society. IEEE Standard Glossary of

Software Engineering Terminology (1990). [3] Hunt, A. & Thoma, D. (2003). Pragmatic Unit Testing

In Java with JUnit. EUA. The Pragmatic Bookshelf. [4] Osherove R. (2009). The Art of Unit Testing: with

Examples in .NET. EUA. Manning Publications. [5] Tahchiev, P. & Leme, F. & Massol, V & Gregory, G.

(2010). JUnit in Action. EUA. Manning Publications.

Figura 8 Resultado del tercer análisis de pruebas funcionales del sistema de encuestas

[6] JUnit [Online http://junit.org/]

7. CONCLUSIÓN [7] PMD [Online http://pmd.sourceforge.net/]

Se concluye y se reafirma la necesidad de hacer uso de software para ejecutar pruebas unitarias en una forma continua, esto con la finalidad de poder detectar errores tempranos en el desarrollo del software, además de poder asegurar la calidad del mismo.

[8] Checkstyle [Online http://checkstyle.sourceforge.net/] [9] FindBugs [Online http://findbugs.sourceforge.net/]

REFERENCIAS [10] SonarQube [Online http://www.sonarqube.org/] [11] SonarQube Documentation [Online [1] RTI International. (2002). The Economic Impacts of

http://docs.codehaus.org/]

Inadequate Infrastructure for Software Testing. Planning Report 02-03. NIST. Recuperado de http://www.nist.gov/director/planning/planning.cfm

65

Tlamati, Número Especial 3 CICOM 2014

Metodología para el reconocimiento de enfermedades y plagas en árboles de aguacate basado en técnicas de visión artificial. Eric Rodríguez Peralta Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Av. Lázaro Cárdenas S/N, CU Chilpancingo Gro.

[emailprotected]

Manuel Hernandez Rodriguez

Agustin Damian Nava

Universidad Autónoma de Guerrero Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Unidad Académica de Ciencias Av. Lázaro Cárdenas S/N, CU Agropecuarias y Ambientales Chilpancingo Gro. Periferico poniente S/V Iguala Gro.

[emailprotected]

[emailprotected]

El aguacate es conocido coloquialmente en algunos lugares como pera lagarto, lo que refleja su forma y la apariencia de su piel. La palabra aguacate proviene de la palabra azteca "ahuacatl", actualmente el aguacate se considera una fruta.

RESUMEN Este artículo se presenta parte del diseño e implementación de un sistema experto especializado en resolver, el problema de identificación de enfermedades en hojas, tallo, y frutos del árbol de aguacate hass (Persea Americana var has [1]). Realizado en coordinación de las Unidades Académicas de Ingeniería y Ciencias Agropecuarias y Ambientales pertenecientes a la UAG. Se describe la herramienta computacional para reconocer enfermedades en aguacates, así como las técnicas de Visión Artificial que sustentan el trabajo. El programa se pretende elaborar bajo la licencia de software libre utilizando programas tales como Python, OpenCV, el sistema pretende determinar la enfermedad y los agroquímicos útiles para su control vigentes en el mercado, como también una descripción de la enfermedad y/o plaga.

México es el centro de origen del aguacate. La evidencia más antigua del consumo de esta fruta data de 10,000 años A. C. y fue encontrada en una cueva localizada en Coxcatlán, Puebla. Las culturas antiguas contaban con un buen conocimiento acerca del aguacate y de sus variantes, como se muestra en el Códice Florentino, donde se mencionan tres tipos de aguacate, que de acuerdo a su descripción; “aoacatl” podría tratarse de Persea americana var. drymifolia (raza Mexicana), “tlacacolaocatl” a Persea americana var. americana (raza Antillana) y “quilaoacatl” a Persea americana var. guatemalensis (raza Guatemalteca). Actualmente se consideran a las tres razas dentro de la especie Persea americana Mill.

Palabras clave: Agronomía, inteligencia artificial, visión artificial, software libre, aguacate, plagas y enfermedades.

En la época colonial los españoles introdujeron el aguacate a otros países americanos y a Europa. A finales del siglo XIX y principios del XX el consumo de aguacate estuvo basado en la producción de plantas de las razas mexicanas y antillana.

1. INTRODUCCIÓN El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

La variedad aguacate Hass en México es actualmente el mayor productor y consumidor de aguacate en el mundo, con una producción de 1,077,505 toneladas cosechadas en 134,325 hectáreas en el 2010. Como líder mundial en la producción y exportación de aguacate, México exportó 359,360 toneladas en el periodo 2010-11, cosechadas en 63,408 hectáreas certificadas para la exportación. Japón es el segundo mercado principal después de Estados Unidos, con un volumen de 33,429

66

Tlamati, Número Especial 3 CICOM 2014 toneladas, colocando a México como líder de participación en el mercado en japonés.[2]

alimenta del follaje, introduciendo sus estiletes en los tejidos de la planta provocando manchas de color rojizo(Aponte & McMurtry 1977).[4]

Figura 2. Hoja infectada con Agalla de la hoja “Trioza anceps Tuthill”.

La araña roja, Oligonychus punicae se encuentra sobre la cara superior de la hoja causando bronceamiento y reducción en la actividad fotosintética debido a que succionan la savia. O. punicae infesta el 71% de los huertos con densidades de 300 ácaros por hoja ocasionan además del bronceado de hojas, una defoliación parcial, o la defoliación puede también ocurrir cuando se presentan 70 hembras adultas por hoja durante periodos de sequía.[5]

Figura 1. La figura muestra un fruto de la variedad Hass (Persea Americana var has).

1.1 Enfermedades del Aguacate Hass Las plagas y las enfermedades han existidos desde la antigüedad, con los cambios climáticos han aumentado considerablemente, es la principal causa de perdida en la producción de cosechas, provocando escases. Existen diferentes tipos de enfermedades y plagas aproximadamente más de 25 de cada una. Algunos ejemplos de las enfermedades que se tratan de identificar y su sintomatología son las siguientes:

(A)

1.2 Agalla de la Hoja “Trioza anceps Tuthill”

(B)

Figura 3. En la imagen (A) podemos observar el acaro de (Oligonychus punicae), En la imagen (B) podemos apreciar el daño a una hoja ocasionado por el acaro.

Es un Psilido pequeño de 2 a 5 mm de largo, esta especie se encuentra principalmente en árboles jóvenes y sobre todo en hojas tiernas, en los crecimientos vegetativos de Febrero-marzo (véase figura 2).. Aunque puede atacar árboles viejos (Villapueda, 1996).La hembra deposita sus huevos en el envés de la hoja (Brom, 1970), en las heridas que hace; y en el tejido parenquimatoso, en el cual se forma una agalla que contiene a la ninfa, la cual pasa aquí de 5 a 6 estadios ninfales. En el último estadio sale por la base de la agalla el adulto. No se conoce con exactitud el tiempo que dura el ciclo biológico, pero por la formación de agallas nuevas se estima que es de aproximadamente 60 días, presentándose de 5 a 6 generaciones por año (Martínez, 1998).[3]

1.4 Araña Cristalina “Oligonychus punicae Tuttle, Baker & Abbatielio” ver (Figura 4.) Esta plaga se hospeda en el envés de las hojas de cualquier edad, principalmente a lo largo de las nervaduras laterales de donde se alimenta succionando la sabia; se protege con una seda y forma numerosas colonias que dan origen a puntos de tejidos muerto obstruyendo así la fotosíntesis. Los daños se caracterizan por que las hojas presentan puntos de color verde claro, que se tornan amarillo rojizo y por último café obscuro. Los arboles de un huerto altamente infestado pueden presentar defoliación, debilitamiento general y, en consecuencia, tienen a hacer raquíticos, con frutos poco desarrollados y escaso, se presentan todo el año pero con mayor severidad en primavera y otoño. Es favorecido por temperaturas altas y lluvia escasa, aunque a diferencia de O. punacae hirst este acaro persiste en condiciones de lluvia moderada (Gómez, 1987).

1.3 Araña Roja “Oligonychus punicae Hirst El acaro Oligonychus punicae (Hirst)(Acari:Tetranychde) se encuentra distribuida en Norte y Sudamérica (véase figura 3)., así como en países Europeos y Asiáticos (Mcgregor, 1941). En México se ha reportado en las zonas aguacateras de puebla, Chiapas, Tamaulipas Michoacán, Morelos y Guerrero. Este acaro se 67

Tlamati, Número Especial 3 CICOM 2014 Al alimentarse del envés de las hojas consumen el contenido de las células y un pequeño remanente del mismo se coagula formado un masa necrótica y amarillenta; inicialmente son afectadas solamente las células del parénquima esponjoso, cuando se presenta densidades entre 100 y 500 ácaros de esta especie por hoja el árbol puede sufrir una defoliación parcial (Aponente y McMurtry, 1997).

computadora adaptados a objetivos particulares. En general, los sistemas artificiales no sólo pueden sustituir a la inspección manual, sino que también permiten mejorar sus capacidades. El desarrollo de sistemas de este tipo adaptados a la agricultura guerrerense es fundamental para que las empresas productoras adquieran ventajas competitivas esenciales frente a otras y con menores costos de producción.

3. ALCANCES

Se localiza en todas las plantaciones a excepción de huertas ubicadas en climas templados-húmedos, en donde las incidencias son bajas para el resto de las áreas en los últimos años, ha adquirido importancia por sus altas infestaciones que ocasionan defoliaciones severas y reduce la productividad de la planta (Gómez 1987)

La presente investigación pretende modelar mediante técnicas de visión computacional y métodos estadísticos algunos posibles patógenos que contribuya a desarrollar un sistema de inspección automática así como su posible solución. La investigación tomará en cuenta únicamente los 3 patógenos principales que afectan a este tipo de fruto.

4. OBJETIVO GENERAL Contribuir con el desarrollo de un sistema automático de inspección y control de la calidad, que sea capaz de detectar algún tipo de patógeno que afecta al fruto, hoja o árbol de aguacate. (A)

(B)

Figura 4. En la imagen (A) podemos observar el daño ocasionado por el ácaro (Oligonychus punicae) en una hoja. En la imagen (B) podemos observar las arañas cristalinas y sus nidos.

5. OBJETIVOS ESPECÍFICOS *Realizar una investigación sobre las posibles enfermedades y plagas que afectan a un árbol de aguacate así como las posibles soluciones.

2. JUSTIFICATION

*Desarrollar una aplicación para la adquisición y procesamiento de las imágenes en tiempo real, lo que incluye el desarrollo de algoritmos para la segmentación de las imágenes, extracción de características y toma de decisiones. El sistema debe ser capaz de detectar, de manera fiable, algún tipo de patógeno basado en la forma, color o la presencia de defectos externos en el fruto.

Uno de los principales problemas a nivel nacional e internacional, está relacionada con la escasez de alimentos debido a diferentes circunstancias ya sean naturales o bien provocadas por el ser humano. En los últimos años se han tratado de implementar programas para evitar esta escasez con nuevos métodos de producción.

*Desarrollar una interfaz amigable que permita a un usuario ajustar los parámetros del procesa- miento y los algoritmos de decisión.

En la actualidad la pérdida de cosechas de diversos productos agrícolas ha motivado el desarrollo de aplicaciones capaces de identificar plagas en frutas y verduras, esto ha reducido en gran medida el margen de pérdida en la recolección de alimentos y por consecuencia han disminuido los costos de producción. Las capacidades de un sistema de visión por computadora van más allá de la limitada capacidad humana, ya que permiten evaluar a largo plazo los procesos de forma objetiva o apreciar los acontecimientos que tienen lugar fuera del espectro electromagnético visible. El uso del espectro ultravioleta o infrarrojo cercano hace posible explorar los defectos o características que el ojo humano es incapaz de observar. Los sistemas hiperespectrales proporcionan información sobre ciertos componentes o daños que pueden ser percibidos sólo en determinadas longitudes de onda, y pueden ser utilizados como una herramienta para desarrollar nuevos sistemas de visión por

*El sistema deberá ser capaz de trabajar en condiciones de campo sobre una plataforma móvil-computacional.

6. MARCO TEÓRICO “visión es un proceso que se produce a partir de las imágenes del mundo exterior, una descripción que es útil para el observador que no tiene información irrelevante”. El procesamiento de imágenes es una área de la visión artificial, cuyo objetivo es mejorar la calidad de las imágenes para su posterior utilización o interpretación. El objetivo de la visión artificial consiste en extraer ciertas características de una imagen para su descripción e interpretación por la computadora.

68

Tlamati, Número Especial 3 CICOM 2014 Después de tener la solución el programa, presentara una pequeña reseña de la plaga o enfermedad acompañado de una solución de los agroquímicos útiles para su erradicación de la huerta, tomando en cuenta los niveles de toxicidad que existen entre los químicos que están vigentes en el mercado. Así el agricultor tendrá la información necesaria de la plaga con la que está tratando en su huerta y tendrá el conocimiento básico para poder abordar su problemática y poner fin a la enfermedad.

La aplicación de la visión por computadora en la agricultura ha aumentado considerablemente en los últimos años, como por ejemplo cartografía terrestre y área de los recursos naturales, monitorización de cultivos, agricultura de precisión, robótica, guiado automático, inspección, control de calidad y clasificación en líneas de procesamiento y en general, en la automatización de procesos. Esta amplia gama de aplicaciones se debe a que los sistemas de visión por computadora proporciona información importante acerca de la naturaleza y atributos de la escena analizada.

7. METODOLOGÍA

PLAGA Agalla de la Hoja (Trioza anceps Tuthill): Es un Psilido pequeño de 2 a 5 mm de largo El problema inicia cuando el insecto encuentra hojas tiernas, lo cual sucede en los crecimientos vegetativos de Febrero-marzo. CONTROL DE LA PLAGA La forma más efectiva de controlarlo es aplicando entre Febrero y Marzo "Metilparathión" ó "Malathión."'

Una área donde el uso de esta tecnología se ha extendido rápidamente es el de la inspección de productos agroalimentarios [6][7] y en particular en la inspección automática de frutas y verduras. La calidad de una pieza de fruta o verdura, sea fresca o procesada, se define por una serie de características físico-químicas que la hacen más o menos atractiva para el consumidor, tales como su grado de madurez, tamaño, peso, forma, color, la presencia de manchas y enfermedades, su contenido en azúcar entre otras.

Figura 6. Imagen donde se muestra la plaga y control de la enfermedad.

Referencias [1]http://w4.siap.sagarpa.gob.mx/appestado/monografias/frutales/ aguacateh.html Consultado el 20 de abril 2014. [2] http://www.aguacatesdemexico.com/Aguacates-MexicanosHistoria-de-los-aguacates.aspx Consultado el 20 de abril 2014 Figura 5. Diagrama del ciclo de vida de la aplicación.

[3] http://es.scribd.com/doc/88483330/Triozaanceps Consultado el 19 de abril 2014

Con la implementación de cálculo de momentos, centroides y otros algoritmos para la mejora de imágenes se pretende realizar la identificación de las plagas y enfermedades.

[4] Marcos Reyes Jacinto, Tesis fluctuación poblacional de araña roya (Oligonychus punicae hirst) y cristalina (Oligonychus perseae Tuttle, Baker & Abbatiello) Iguala de la Independencia, Enero 2013.

8-1 Tenido los momentos procedemos a realizar el centro de masa (centroide).

[5]http://www.avocadosource.com/books/Ripa2008/Ripa_Chapt er_11b.pdf Consultado el 15 de abril 2014

8-2

[6]D. W. Sun. Computer vision technology for food quality evaluation. Academic Press, Elsevier Science, London, UK., 2007 [7]D. Lorente, N. Aleixos, J. G_omez-Sanchis, S. Cubero, OL. Garc__a-Navarrete, and J. Blanco. Recent advances and applications of hyperspectral imaging for fruits and vegetables quality. Food and

Aplicamos el cálculo de la distancia euclidiana para poder comparar las imágenes y obtener la distancia menor entre cada centro de masa de las imágenes. 8-3 69

Tlamati, Número Especial 3 CICOM 2014 Bioprocess Technology., 2012. [8] 1.- formula de calculolo de momento, 2.- formula de cálculo de centroides, 3.- calculo de distancia euclidiana

70

Tlamati, Número Especial 3 CICOM 2014

Diseño de una arquitectura web distribuida de alta disponibilidad para sistemas de educación a distancia por medio de Oracle WebLogic Server Andrés Felipe Díaz Ramos

Juan José Orjuela Castillo

Universidad Distrital Francisco José de Caldas Bogotá, Colombia

Universidad Distrital Francisco José de Caldas Bogotá, Colombia

[emailprotected]

[emailprotected] sistemas de educação a distância em ambientes distribuídos. Sistemas Web no mercado têm capacidade de conexões simultâneas limitado. Os servidores que contêm o sistema tende a cair e falhar muitas vezes. Portanto, propõe-se um desenho de uma arquitetura de software para educação à distância de sistemas distribuídos. Esta arquitetura é implementada em aplicações do Oracle WebLogic Server, e é caracterizado por permitir que os sistemas altamente disponíveis e escaláveis. Atualmente, os sistemas de educação a distância na web precisa desses recursos.

RESUMEN Este artículo estudia el desarrollo y la implementación de sistemas de educación a distancia en entornos distribuidos. Los sistemas web en el mercado, tienen una capacidad limitada de conexiones simultáneas. Los servidores que contienen el sistema tienden a caerse y a fallar frecuentemente. Por lo tanto, se propone un diseño de una arquitectura lógica para sistemas distribuidos de educación a distancia. Esta arquitectura es implementada sobre un servidor de aplicaciones Oracle Weblogic, y se caracteriza por permitir sistemas altamente disponibles y escalables. Actualmente, los sistemas web de educación a distancia necesitan de estas características.

PALABRAS CLAVE Sistemas Distribuidos, Sistemas Web de Educación a Distancia, Arquitectura lógica, Oracle WebLogic Server, AJAX

ABSTRACT This article examines the development and implementation of distance education systems in distributed environments. Web systems on the market have limited capacity for simultaneous connections. The servers that contain these systems tend to fall and fail often. Therefore, a design of a logical architecture for distributed distance learning is proposed. This architecture is deployed on Oracle Weblogic application server, and is characterized by granting highly available-scalable systems. Currently, web distance education systems need these features.

1. INTRODUCCIÓN Los sistemas web de educación a distancia (EaD) requieren de herramientas de software ágiles y confiables, para mejorar la disponibilidad de los recursos que se suben en la Internet. Por eso, surge el desarrollo de sistemas distribuidos para dar grandes ventajas a los servidores web, como la escalabilidad y la alta disponibilidad.

RESUMO

El presente artículo tiene como objetivo proponer el diseño de la arquitectura lógica de un sistema web distribuido de educación y formación a distancia, destacando el papel desempeñado de la replicación y el balanceo de carga transaccional para aumentar la disponibilidad de los recursos en la Internet. Por lo cual, se definen los componentes necesarios de la arquitectura lógica del diseño propuesto para establecer servicios web altamente disponibles y las interacciones que tiene el servidor de aplicaciones en el sistema.

Este artigo analisa o desenvolvimento e implementação de El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

Oracle WebLogic Server 12c es un servidor de aplicaciones implementado en lenguaje Java. En él, se pueden realizar arquitecturas distribuidas con las características necesarias para tener entornos web de alta disponibilidad.

71

Tlamati, Número Especial 3 CICOM 2014 Además, como parte adicional al documento, se propone el uso de AJAX en la capa de presentación. Unido con Hibernate, permite realizar aplicaciones muy robustas en poco tiempo.

Sin embargo, el importante despliegue de los Sistemas de Proceso Distribuido en los últimos años ha sido (más) inducido por las necesidades organizativas de la empresa como por la acelerada evolución de las tecnologías [6].

2 EDUCACIÓN A DISTANCIA

En esta evolución, las BDD (Bases de Datos Distribuidas) surgieron como una necesidad para dar solución a los Sistemas de Información donde los servicios ofrecidos por una BD (Base de Datos) centralizada suelen ser poco eficientes, especialmente cuando el Sistema de Información es soportado en red, la cual contiene un conjunto limitado de nodos ubicados en distintos sitios [4].

La educación a distancia es una estrategia educativa basada en la separación espacio-temporal de las actividades de enseñanza y aprendizaje, a través de modos y medios de comunicación que están adecuados para tal fin, y que aparecen como resultado del desarrollo acelerado de la Informática, que es la ciencia que se encarga de la utilización del manejo de la información, y de la Telemática, que es la ciencia que se encarga de la transmisión de datos a distancia entre y por medio de ordenadores [8]. Es así, como la educación a distancia a través de la tecnología ha proporcionado nuevos canales de comunicación, haciendo que la información y el conocimiento sean más accesibles a las personas.

Un sistema distribuido no sólo proporciona alta disponibilidad de recursos, sino que también brinda una mayor rapidez y eficacia al momento de transmitir los datos. Por medio de un arquitectura distribuida tendremos la capacidad de escalar el sistema tanto vertical como horizontalmente si el sistema lo requiere.

Los más recientes estudios del Consejo de Europa sobre la educación a distancia han destacado las tendencias a la internacionalización de los servicios, a la federación en asociaciones internacionales y a la utilización creciente de nuevas tecnologías de la información, entre las instituciones educativas del sector. Con acierto, los informes han observado que el principal motor y la variable inicial del desarrollo en curso de la educación a distancia en Europa es el incremento cualitativo y cuantitativo de la demanda; mientras que se registra una tendencia creciente a la dispersión e inconexión de la oferta [12].

Con frecuencia los sistemas distribuidos de archivos proporcionan la réplica de archivos como servicio a sus clientes. En otras palabras, se dispone de varias copias de algunos archivos, donde cada copia está en un servidor de archivos independiente. Las principales razones para la existencia de tal servicio, los cuales buscan mejorar la confiabilidad y la disponibilidad, son: Aumentar la confiabilidad al disponer de respaldos independientes de cada archivo. Si un servidor falla o se pierde en forma permanente, no se pierden los datos; y, permitir el acceso a un archivo, aun cuando falle un servidor de archivos. El fallo de un servidor no debe hacer que todo el sistema se detenga hasta cuando aquél se pueda volver a arrancar [2].

Actualmente, los sistemas de educación a distancia emplean varios medios de comunicación para la interactividad entre docentes y/o alumnos como: Internet, foro, video-conferencia, blog, chat, correo, entre otros. La información, normalmente en multimedia, es subida a la web pocas veces pero descargada muchas veces en diferentes espacios de tiempo, por lo tanto, se necesita mantener disponible el mayor tiempo posible. Los ejemplos más conocidos de este tipo de entornos son Blackboard y Moodle.

4. BALANCEO DE CARGA Uno de los propósitos de los sistemas distribuidos es permitir que las aplicaciones y los procesos de servicio evolucionen concurrentemente sin competir por los mismos recursos y explotando los recursos computacionales disponibles [3]. Esto es posible a través de balanceadores de carga transaccional que distribuyan las peticiones de Internet entre los servidores del sistema.

3. SISTEMAS DISTRIBUIDOS Los sistemas distribuidos buscan potenciar y mejorar el acceso a los sistemas informáticos web, entre estos, los usados para la educación a distancia. Como se menciona en el artículo [13], una arquitectura distribuida se plasma como una excelente alternativa de solución para la enseñanza a distancia, además de presentar ventajas sobre los sistemas tradicionales, que poseen sus recursos de enseñanza en forma centralizada.

El balance de carga en un clúster se puede mantener con un procedimiento que divide de la manera más equitativa posible el trabajo que se ha de repartir entre los procesadores, y así evitar el desbalance producto de la misma asignación [1]. Los balanceadores de carga pueden ser soluciones hardware con software (firmware) o sólo software, y existen varios métodos y algoritmos (tipos) para realizar el balanceo. El balanceo de carga es la manera de distribuir peticiones de Internet entre los servidores del sistema.

Según Coulouris et al. [3], los factores que logran la distribución de objetos y procesos en un sistema son numerosos y de considerable significado. Todo comenzó en los años setenta con los sistemas de tiempo compartido. Los beneficios de la distribución se reconocieron rápidamente, y la idea de compartir se trabajó ampliamente. La disponibilidad de redes de computadores de prestaciones medias y la continua necesidad de compartir recursos de hardware relativamente costosos como impresoras y almacenamiento en disco condujeron al desarrollo de los sistemas distribuidos de los años setenta y ochenta. Hoy, el compartir recursos se da por descontado. Pero compartir datos en gran escala de forma efectiva continúa siendo un reto mayor.

5. AJAX AJAX (Asynchronous JavaScript And XML) es la técnica que permite generar aplicaciones web de forma interactiva al manejar una estructura que permite al servidor web comunicarse con el navegador del usuario por componentes individuales. AJAX intenta proveer aplicaciones web con las características de las aplicaciones del escritorio y permite que los datos que se

72

Tlamati, Número Especial 3 CICOM 2014 Oracle ADF UIX, que han existido desde hace bastante tiempo y que han demostrado ser exitosos.

cargan a la aplicación no requieran una recarga del sitio web; de esta forma, permite más velocidad y robustez en la aplicación web [5].

El diferenciador que aporta JSF, que otros marcos similares no tienen, es el respaldo de una especificación estándar (JSR 127). Debido a que JSF es parte de la especificación estándar J2EE, es una prioridad para todos los principales proveedores de herramientas de J2EE en el mercado (incluyendo Oracle, IBM y Borland) que lo soporte, que a su vez, garantizará una amplia adopción y buenas herramientas apoyo [7].

Aunque el nombre de AJAX es nuevo, las tecnologías base de esta técnica, con JavaScript XMLHttpRequest y DOM, han existido desde hace algún tiempo. De hecho, la última incorporación a este conjunto de tecnologías (la XMLHttpRequestObject) fue introducido por Microsoft en 1999 con el lanzamiento de Internet Explorer 5.0 y fue implementado como un componente ActiveX.

7. BEA ORACLE WEBLOGIC SERVER

Una de las razones por las cuales AJAX ha cobrado impulso y popularidad es la XMLHttpRequestObject y la forma en que este objeto hace posible que los desarrolladores puedan comunicarse de forma asincrónica con los servidores subyacentes y los servicios de negocio que utilizan las aplicaciones Web. Los sitios populares como Google Gmail y Google Suggest están utilizando técnicas AJAX para proporcionar a los usuarios interfaces ricas en contenidos [7].

Oracle tiene la capacidad de brindarnos las tecnologías necesarias para poder crear una arquitectura distribuida. El servidor de aplicaciones WebLogic, en su más reciente versión (12c), cuenta con la capacidad de hacer un clúster con el objetivo de poder distribuir la aplicación en varios componentes y poder usarse desde distintos servidores. Además, WebLogic tiene la capacidad de procesar tráfico de peticiones hacia un mismo nodo o servidor, en el cual, se calcula y se decide cuál nodo está disponible y cuáles están ocupados, y con base en esto, se envía la petición al nodo disponible para que la procese de inmediato o la deje pendiente para su posterior procesamiento.

6. ARQUITECTURA ORIENTADA A SERVICIOS La Arquitectura Orientada a Servicios (SOA) es un estilo de arquitectura para la construcción de sistemas basados en las interacciones de servicios débilmente acoplados y llamados componentes autónomos. Cada servicio expone los procesos y conductas a través de los contratos, que se componen de mensajes a direcciones que se pueden descubrir los llamados puntos finales. El comportamiento de un servicio se rige por las políticas que son externas al propio servicio. Los contratos y mensajes son usados por los componentes externos llamados consumidores de servicios [14].

Oracle WebLogic Server 11g y 12c proporciona un fuerte apoyo a los Real Application Clusters(RAC), que minimizan el tiempo de acceso de base de datos al tiempo que permite el acceso transparente a las funciones de gestión del pool de conexiones que maximiza el rendimiento y la disponibilidad de conexión. Los RAC permiten ejecutar varias instancias de base de datos en distintos servidores de la agrupación frente a una misma base de datos. La base de datos abarca múltiples sistemas de hardware, y sin embargo, aparece como una sola base de datos unificada en la aplicación. Por lo tanto, permite la utilización de hardware de consumo para reducir el coste total de propiedad y proporcionar un entorno de computación escalable que soporta varias cargas de trabajo de aplicación. RAC es el elemento más importante de la tecnología Clustering de Oracle en base de datos de disco compartido [10].

La tecnología y el lenguaje de desarrollo en Java permite el desarrollo de aplicaciones web divididas por componentes, para segmentar una aplicación robusta en módulos lo suficientemente pequeños para un mejor procesamiento y si es necesario poder desplegar o ejecutar cada módulo en un servidor o nodo distinto, y que esto sea transparente para la aplicación y el usuario final. A finales de 1990, ya que Java se reforzó por la aparición de tecnologías diferentes (tales como RMI, JTA y CORBA) que abordaron las necesidades de la empresa de aplicaciones a gran escala, surgió la necesidad de un marco de componentes de negocio que pudiera unificar estas tecnologías e incorporarlas bajo un modelo de desarrollo de componentes estándar. A partir de esta necesidad nació Enterprise JavaBeans (EJB).

Oracle WebLogic Active GridLink for RAC is the marketleading mid-tier integration solution leveraging additional Oracle RAC advancements. Oracle WebLogic Server Active GridLink for RAC is the strategic solution for supporting Oracle Real Application Clusters recommended by Oracle. It represents the best possible middleware and database integration with features that are not available from other vendors. WebLogic Server is the only application Server who has been fully integrated and certified with Oracle Database RAC 11g and 12c without losing any capabilities in Java EE implementation with security, transaction, connection pooling, etc management [11].

EJB es una arquitectura de componentes de servidor que simplifica el proceso de construcción de aplicaciones de componentes empresariales distribuidos en Java.Con su utilización es posible escribir aplicaciones escalables, fiables y seguras sin escribir código de infraestructura [15].

8. DISEÑO PROPUESTO DE LA ARQUITECTURA DISTRIBUIDA

El framework Java Server Faces (JSF) en esencia, es un marco de componentes de interfaz de usuario para las aplicaciones J2EE (y por los componentes de interfaz de usuario nos referimos a bloques de construcción para los desarrolladores de aplicaciones, no los componentes del marco en sí). JSF es, después de todo, un framework que trata de resolver los mismos problemas que el mencionado framework Apache Tapestry u

Las aulas virtuales deben contar con algunas funcionalidades básicas para poder considerarse como aula virtual y que cumpla el objetivo de la educación a distancia. Estas funcionalidades son: Gestión de contenidos, comunicación de docente a

73

Tlamati, Número Especial 3 CICOM 2014 estudiante, de estudiante a docente y de estudiante con estudiante y la evaluación sobre los contenidos educativos [9].

Después de buscar el lenguaje de desarrollo más apropiado para el desarrollo del sistema propuesto, encontramos que Java es el más apropiado. Java cuenta con una serie de librerías y frameworks que facilitan el desarrollo de aplicaciones web, además de esto es unos lenguajes open source, lo cual hace que el desarrollo de aplicaciones en este lenguaje sea de bajo costo.

Inicialmente, se desarrollaran y desplegaran tres componentes. Cada uno cumpliendo con las tareas que cada funcionalidad mencionada anteriormente debe cumplir. Se propone una solución con los estándares y mejores prácticas en el desarrollo orientado a servicios de aplicaciones Java. El sistema está constituido por varios componentes, como se visualiza en la figura 1. El primero de ellos, es el módulo de presentación, en donde se encuentra toda la capa de presentación. Luego de esto, encontramos los componentes de lógica del negocio, los cuales, cada uno por aparte, se encargan de una serie especifica de tareas; y, son los intermediarios entre la base de datos y la capa de presentación. Cada componente está desplegado en un servidor diferente para dar la mayor capacidad de procesamiento a cada uno de ellos. Inicialmente, cada componente de la aplicación se replica en otros servidores. Por medio del balanceador de carga, se manejará el tráfico de peticiones por parte del usuario. Todo esto, para que la arquitectura lógica esté diseñada para que el sistema web tenga alta disponibilidad de sus recursos. Todos los componentes son independientes entre ellos, para que así, se pueda desarrollar, a largo plazo, nuevos componentes con nuevas funcionalidades e interconectarlas con los componentes ya existentes, además de ser necesario una mayor disponibilidad o mayor procesamiento de transacciones, el sistema está dado para replicar los componentes que sean necesarios y desplegarlos en nuevos servidores. Lo que permite que el sistema sea escalable en el tiempo.

Figura 1: Arquitectura web distribuida propuesta

Además, de darle alta disponibilidad al sistema, desplegar los mismos componentes en servidores distintos le proporciona a todo el sistema una mayor tolerancia a fallos, ya que si un servidor llegara a fallar, el sistema podría consumir el mismo servicio desde otro servidor.

A partir de la investigación sobre balanceo de carga, se concluye que existe una amplia gama de algoritmos que pueden aplicarse a los sistemas distribuidos de educación a distancia. Sin embargo, para poder escoger el más adecuado, se tienen que evaluar muchos datos, que en algunos casos, no son fáciles de obtener.

Asi mismo, el sistema cuenta con una base de datos (BD) principal y una secundaria, dónde la BD secundaria es el nodo suscriptor de la BD principal y con esto, se pretende dar al sistema tolerancia a fallos a nivel de base de datos a través de la replicación.

Debido a la naturaleza del problema y después de analizar las diferentes arquitecturas de software existentes, se concluyó que la arquitectura orientada a servicios es la que mejor se adapta a las necesidades del entorno web enfocado a la alta disponibilidad; por lo cual, se han utilizado algunos de sus componentes y buenas prácticas comprobadas para realizar el diseño propuesto.

9 CONCLUSIONES Los siguientes comentarios finales muestran el sentido de la investigación, el análisis y el diseño de la propuesta mostrada en este artículo para el problema de la disponibilidad de los recursos en un sistema web de educación a distancia.

Luego de realizar el proceso investigativo mencionado anteriormente, fue necesario tener en cuenta los conceptos del proceso de intercambio de información entre los diferentes elementos del sistema, que fue de vital importancia, para poder realizar el proceso de comunicación de la arquitectura propuesta.

Con el paso de los años Oracle se ha vuelto una de las empresas de tecnología más importantes del mundo, sus grandes desarrollos tecnológicos hacen que el diseño de la arquitectura propuesta en este artículo sea posible. WebLogic es un servidor de aplicaciones que cuenta gran variedad de funcionalidades y servicios entre los cuales entre los cuales está el Clustering, la replicación y el balanceo de cargas.

10. REFERENCIAS [1] A. Barreto and Y. Cardinale. Load balancing on a cluster computing based in the routh-hurwitz criterion. In Computing Conference (CLEI). IEEE, 2013.

74

Tlamati, Número Especial 3 CICOM 2014 [8] C. H. Martínez. La educación a distancia: sus características y necesidad en la educación actual. Educación, Septiembre 2008. [9] I. Martínez. Moodle, la plataforma para la enseñanza y organización escolar. Escuela de Magisterio Victoria. UPV / EHU. [10] Oracle. Oracle real application clusters (rac). Oracle, June 2013. [11] Oracle and Nec. Active gridlink for rac: Intelligent integration between weblogic server and oracle real application clusters. Oracle, June 2013. [12] J. L. Orihuela. Satélites para la educación a distancia en europa. ¿Una solución en busca de un problema? Comunicación y Sociedad, 1993. [13] D. A. Ovalle and J. A. Jiménez. Ambiente inteligente distribuido de aprendizaje: Integración de its y cscl por medio de agentes pedagógicos. Escuela de Ingeniería de Antioquia (EIA), Diciembre 2006. [14] A. Rotem. SOA Patterns. Editorial Mannung, 2012. [15] J. Wetherbee, C. Rathod, R. Kodali, and P. Zandrozny. Beginning EJB 3. Editorial Apress, 2006.

[2] J. F. Bastidas, H. Carrillo, D. E. Cifuentes, and et al. Sistemas Operativos Distribuídos. Publicaciones Icesi, 2010. [3] G. Coulouris, J. Dellimore, and T. Kindberg. SISTEMAS DISTRIBUIDOS. Conceptos y diseño. Pearson Educación S.A., Madrid, España, 2001. [4] D. Cuadra, E. Castro, and et al. Desarrollo de Bases de Datos. Casos Prácticos desde el análisis a la implementación. Alfaomega grupo Editor, México, 2013. [5] H. A. Flórez. Arquitectura multicapa mediante ajax y orm. Vínculos, Junio 2010. [6] J. García, S. Ferrando, and M. Piattini. Redes para Proceso Distribuido. Area Local, Arquitecturas, Rendimiento, Banda Ancha. Alfaomega grupo Editor, México, 2001. [7] J. Jacobi and J. Fallows. Pro JSF and Ajax. Editorial Apress, 2006.

75

Tlamati, Número Especial 3 CICOM 2014

Using a qualitative approach for selecting software architecture patterns Luis Felipe Wanumen Silva

Rafael Andrés González Rivera

METIS Research Group / ISTAR Research Group Transversal 70 B No. 73 a 35 su (+57 1) 2004217

ISTAR Research Group Carrera 7 No. 40 - 62 (+57 1) 320 8320 Ext. 5338

[emailprotected] [emailprotected]

[emailprotected]

complex by the variety of data types including spatial data and sophisticated relationships and the strong need for performance and accuracy in the final product. On one hand the agent-based simulations (ABS) have big algorithmic complexity; on the other hand the development of software that implements interaction between ABS and GIS is complex because the resulting software system includes many components that have no direct relationship to the domain.

ABSTRACT This paper discusses the implemented process for selecting software architecture patterns based on a qualitative approach. The process analyses the main architecture patterns with requirements presented by a specific case of integration between GIS and existing ABS. Architectural patterns studied are: (a1) layers, (a2) pipes and filters, (a3) blackboard, (a4) broker, (a5) model-view-controller, (a6) presentation-abstraction-control, (a7) microkernel and (a8) reflection. Finally the resulting software is shown, in conjunction with the conclusions.

Based on the fact that the selection of architectural pattern is fundamental to the future of a system, in the case of interactions between an ABS and a GIS, a qualitative approach is used to get the name of the best architecture through applying patterns at requirements.

Categories and Subject Descriptors D.2.2 [Software Engineering]: Design Tools and Techniques – Top-down programming.

1. SYSTEM REQUIREMENTS

D.2.11 [Software Engineering]: Software Architectures – patterns, client/server, pipeline, blackboard.

The requirements of architecture for interaction between GIS and SBA are shown in Table 1:

General Terms

Table 1. List of requirements

Design, Theory.

Keywords Modeling approach, software architecture, design patterns, Modeling software.

INTRODUCTION

Code of requirement

Description

A

The solution must incorporate mechanisms for solving the problems of location and spatial coordination.

B

The final simulation must be run in a GIS.

C

The development of geographic information system (GIS) is D

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

E F G

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

76

The system should be usable by firefighters The system should be configurable The transport of information between the GIS and the SBA must not exceed 3 seconds Integration must work on various types of geographic data The Integration between GIS and ABS is useful if it allows the visualization

H

The movement of agents must be in real time.

I

The integrated system must reconcile the rectangular coordinates handled by agents in the ABS and Geographic coordinates handled by agents in GIS.

Tlamati, Número Especial 3 CICOM 2014

J

K L M N O

The system must be testable. The developer must ensure that data can be sent correctly from the SBA to the SIG, additionally, the tester should verify that the data sent by the SBA are properly used by the GIS. architectural goal of modularity must be included The system must implement data interoperability models. Data from the ABS should be available for the GIS The view must be independent of the data repository The system must implement interoperability models.

P

The system must be scalable.

Q

Modifications made to the agents should not alter the visualization layer

Control.

Microkernel.

Reflection

[9][10]. The Microkernel pattern strongly support extension of applications and their adaptation to evolving technology and changing functional requirements. The Microkernel pattern only considers the distribution [11][12][13]. The Reflection pattern strongly support extension of applications and their adaptation to evolving technology and changing functional requirements [14][15].

The best architecture applicable to this case is obtained by comparing the architectural patterns with the requirements. The results are shown in tables 3 to 10.

2.1 1. Viability of implementation layer pattern Viability of implementation layer pattern is shown in tables 3:

All requirements are equally important and these will be contrasted with major architectural patterns.

Table 3. Viability of implementation layer pattern Requir ement

Application of the pattern

A

The pattern matching can be used to build an architecture [1] The analyzed software architectures are shown in Table 2.

Inefficiency of data access in view increases the problems of location and spatial coordination in the GIS.

B

Table 2. List of Software Architecture (Architectural Patterns)

The developer can make different implementations of the same interface, which allow use ArcGIS or any other product

C

The Layer pattern is neutral with respect to this requirement

D

The Layer pattern is neutral with respect to this requirement

E

The layer pattern is not efficient and it increases latency

F

The layer pattern supports the portability of geographic data.

G

Close coupling of views and controllers prevents proper visualization.

2. ANALYZED ARCHITECTURAL PATTERNS

Architectural Patterns Layers

Pipes and filters

Blackboard

Broker.

Model-ViewController. PresentationAbstraction-

Description The Layers pattern helps to structure applications that can be decomposed into groups of subtasks in which each group of subtasks is at a particular level of abstraction [2]. The Pipes and Filters pattern only consider distribution as a secondary concern and are therefore listed under their respective primary categories. The Pipes and Filters pattern provides a structure for systems that process a stream of data. Each processing step is encapsulated in a filter component. Data is passed through pipes between adjacent filters. Recombining filters the pattern allows to build families of related systems [3]. The Blackboard pattern is useful for problems for which no deterministic solution strategies are known [4]. In Blackboard several specialized subsystems assemble their knowledge to build a possibly partial or approximate solution [5]. The Broker pattern provides a complete infrastructure for distributed applications. Its underlying architecture is soon to be standardized by the Object Management Group [6]. Patterns support the structuring of software systems that feature human-computer interaction [7][8]. Patterns support the structuring of software systems that feature human-computer interaction 77

H

The layer pattern is not useful for real-time systems.

I

The layer pattern is neutral with respect to this requirement

J

Sending data from one layer to the next can be tested, however the use of the data into a final layer is not easily testable.

K

The pattern supports modularity

L

The layer pattern is neutral with respect to this requirement

M

The layer pattern is neutral with respect to this requirement

N

The layers pattern supports this requirement

O

The layer pattern is neutral with respect to this requirement

P

The layer pattern is neutral with respect to this requirement

Tlamati, Número Especial 3 CICOM 2014 Q

Individual layer implementations can be replaced by semantically-equivalent implementations without too great an effort

2.3 3. Viability of implementation Blackboard pattern Viability of implementation blackboard pattern is shown in tables 13:

2.2 2. Viability of implementation Pipes and filters pattern

Table 5. Viability of implementation blackboard pattern

Viability of implementation Pipes and filters pattern is shown in tables 4:

Requir ement

Application of the pattern

A

The Blackboard pattern makes experimentation with different algorithms possible, and also allows different control heuristics to be tried

B

The prerequisites for reuse are that knowledge source and the underlying Blackboard system understand the same protocol and data. A high-level protocol that can be understood by the GIS and the SBA would fulfill the prerequisites.

Table 4. Viability of implementation Pipes and filters pattern Requir ement

Application of the pattern

A

Data transformation overhead prevents system from solving problems related to coordination.

B

The pipes and filters pattern is neutral with respect to this requirement

C

C

Rapid prototyping of pipelines make it easy to create usable systems

The blackboard pattern has difficulty of testing it includes, the usability for firefighters

D

D

Flexibility by recombination. This major benefit, combined with the reusability of filter components, allows you to create new Filters that allow system configurability

"The Blackboard architecture supports changeability and maintainability where the changeability is the modifiability through time and the maintainability is the modifiability through space.

E

The information about the position of the agents can be transferred quickly by the efficiency of Pipes and Filters

E

F

The Pipes and Filters pattern is neutral with respect to this requirement

Blackboard cannot guarantee the efficiency of information transport

F

G

Parallel filters can improve the coupling with Agent Based Simulation

H

The pattern layer is not useful for real-time systems.

In domains in which no closed approach exists and a complete search of the solution space is not feasible, the Blackboard pattern makes experimentation with different types of geographic data

I

The pipes and filters pattern is neutral with respect to this requirement

G

Luis allows different control heuristics to be tried Including visualization heuristics.

J

The error handling is the Achilles' heel of the Pipes and Filters pattern however a concrete error recovery or error-handling strategy depends on the task you need to solve

H

The Blackboard pattern does not support for parallelism, although it allows different control heuristics such as parallel algorithms which are useful for building real-time systems.

K

The pattern supports modularity

I

L

The pipes and filters pattern is neutral with respect to this requirement

M

The pipes and filters pattern is neutral with respect to this requirement

Taking into account that Knowledge sources are independent specialists for certain tasks and there are two types of managed coordinates on each side of the solution, it is possible to build a common protocol to interpret the coordinate types and it unify existing knowledge in each of the systems.

N

The pipes and filters pattern is neutral with respect to this requirement

O

On the other hand the configurability supports modifiability. We conclude that configurability is indirectly supported by the blackboard pattern."

The pipes and filters pattern is neutral with respect to this requirement

P

Support for recombination leads to easy modification of components.

Q

The pipes and filters pattern is neutral with respect to this requirement

78

J

The blackboard has difficulty of testing

K

The blackboard pattern is neutral with respect to this requirement

L

The blackboard pattern is neutral with respect to this requirement

M

The low efficiency could affect the availability.

N

The view should be dependent of the data repository

O

Low efficiency could adversely affect interoperability.

P

The blackboard pattern is neutral with respect to this requirement

Q

No affect, positively or negatively to the requirement

Tlamati, Número Especial 3 CICOM 2014 Table 7. Viability of implementation Model View Controller pattern

2.4 4. Viability of implementation Broker pattern Viability of implementation broker pattern is shown in tables 6:

Requir ement

Application of the pattern

A

Synchronized views should incorporate mechanisms for solving the problems of location and spatial coordination however changes to the model's interface are likely to break the code of both view and controller

B

In the MVC pattern multiple views can therefore be implemented and used with a single model. Each view can be associated with a GIS interface and the model can be associated with the ABS which produces the initial data. However the difficulty of using MVC with modern user-interface took as GIS could adversely affect the requirement.

C

The Model View Controller pattern is neutral with respect to this requirement

Table 6. Viability of implementation broker pattern Requir ement

Application of the pattern

A

Broker system may offer lower fault tolerance.

B

The Location Transparency favors the requirement

C

The broker pattern has difficulty of testing it includes, the usability for firefighters

D

Changeability and extensibility of components favors Indirectly the configurability.

E

Different Broker systems may interoperate if both systems understand a common protocol for the exchange of messages, however, the transport of information between the GIS and the SBA also give worse performance than a concrete mechanism for inter-process communication, because a Broker architecture introduces indirection.

F

G

Changeability and extensibility of components. If servers change but their interfaces remain the same. This requirement is fulfilled if the interfaces of geographic data are the same. The broker pattern is neutral with respect to this requirement

H

Broker system may offer lower fault tolerance.

I

Broker may offer lower system fault tolerance. When coordinates are reconciled.

J

The broker pattern is neutral with respect to this requirement

D

The pattern does not support configurability

E

Inefficiency of data access in view

F

The pattern is inefficient for this requirement.

G

The Model View Controller pattern is neutral with respect to this requirement

H

The Model View Controller pattern is not useful for real-time systems.

I

The Model View Controller pattern is neutral with respect to this requirement

J

The pattern is inefficient for this requirement.

K

The pattern supports modularity

L

The Model View Controller pattern is neutral with respect to this requirement

M

The standard supports data availability

N

The view is not entirely independent of the data repository because of the existence of close coupling for views and controllers

O

here are favorable and unfavorable factors for interoperability

K

The broker pattern is neutral with respect to this requirement

L

Broker increases interoperability

M

The broker pattern is neutral with respect to this requirement

P

There are favorable and unfavorable factors for scalability

N

Broker removes the dependencies and limitations when components handle communication themselves

Q

O

Broker increases interoperability

Modifications made to the agents should not alter the visualization layer because there are close coupling of views and controllers

P

The pattern supports the extensibility

Q

The broker pattern is neutral with respect to this requirement

2.6 6. Viability of implementation Presentation-Abstraction-Control pattern

2.5 5. Viability of implementation Model View Controller pattern

Viability of implementation Presentation-Abstraction-Control pattern is shown in tables 8: Table 8. Viability of implementation PresentationAbstraction-Control pattern

Viability of implementation Model View Controller pattern is shown in tables 7:

79

Requir ement

Application of the pattern

A

There are different types of agents and various coordination mechanisms that can be incorporated into

Tlamati, Número Especial 3 CICOM 2014 Viability of implementation Microkernel pattern is shown in tables 9:

the resulting system through concepts. In PAC different semantic concepts in the application domain are represented by separate agents. Each agent maintains its own state and data, coordinated with, but independent of other PAC agents. Individual PAC agents also provide their own human-computer interaction. However The overhead in the communication between PAC agents may prevents implantation of coordination mechanisms resulting B

Table 9. Viability of implementation Microkernel pattern

The smaller the atomic semantic concepts of an application are, and the greater the similarity of their user interfaces, the less applicable this pattern is. Usually will exist many agents with similar or same interface

Requir ement

Application of the pattern

A

The X pattern is neutral with respect to this requirement

B

The GIS can be seen as an additional view to the ABS. In this respect if we need to implement an additional GIS, all we need to do is add a new external server.

C

The microkernel pattern is neutral with respect to this requirement

C

Pipes and Filters facilitates rapid prototyping, and collaterally, it would facilitate usability

D

The microkernel pattern is neutral with respect to this requirement

D

The Presentation-Abstraction-Control pattern is neutral with respect to this requirement

E

Microkernel enables deployment in distributed systems, however poor design however, the system can be overlooked.

E

It is possible to add new agents into an existing PAC architecture without major changes to existing PAC agents

F

The microkernel pattern is neutral with respect to this requirement

F

Different semantic concepts in the application domain are represented by separate agents

G

The microkernel pattern is neutral with respect to this requirement

G

The Presentation-Abstraction-Control pattern is neutral with respect to this requirement

H

H

The overhead in the communication between PAC agents may prevents movement of agents, in real time and it should impact system efficiency. On the other hand PAC agents can be distributed easily to different threads, processes, or machines

If we compare monolithic software system designed to offer a specific view with a Microkernel system supporting different views. the performance of the former will be better in most cases

I

The microkernel pattern is neutral with respect to this requirement

J

The microkernel pattern does not supports this requirement

I

Different semantic concepts in the application domain are represented by separate agents

K

J

The Presentation-Abstraction-Control pattern is neutral with respect to this requirement

The microkernel pattern does not supports this requirement

L

K

The Presentation-Abstraction-Control pattern is neutral with respect to this requirement

The microkernel pattern does not supports this requirement

M

L

The overhead in the communication between PAC agents may impact the efficiency of interoperability mechanisms

The microkernel pattern does not supports this requirement

N

If data repository are placed in the kernel the view must be independent of the data repository

The Presentation-Abstraction-Control pattern is neutral with respect to this requirement

O

The microkernel pattern does not supports this requirement

N

The layers pattern supports this requirement

P

Microkernel architecture supports scalability

O

When the system is increased the implementation of every semantic concept within an application as its own PAC agent may result in a complex system structure. This situation hinders interoperability

Q

If agents are placed in the kernel the Modifications made to the agents should not alter the visualization layer

P

New agents are easily integrated

Q

Changes within the presentation or abstraction components of a PAC agent do not affect other agents in the system

M

2.8 8. Viability of implementation Reflection pattern Viability of implementation Reflection pattern is shown in tables 10:

2.7 7. Viability of implementation Microkernel pattern

Table 10. Viability of implementation Reflection pattern Requir ement

80

Application of the pattern

Tlamati, Número Especial 3 CICOM 2014 A

Incorporate mechanisms in levels of reflection allows future developers to make changes.

B

The Layer pattern is neutral with respect to this requirement

C

The Layer pattern is neutral with respect to this requirement

A

X

X

1

X

1

B

1

1

1

X

1

C

1

X

X

1

D

1

1

1

X

1

E

X

1

X

1

X

1

1

1

X

1

1

D

Any changes or modification in the system should be easy if the reflection pattern are used

F G

X

1

1

E

"Reflective software systems are usually slower than non-reflective systems. This is caused by the complex relationship between the base level and the meta level. Whenever the base level is unable to decide how to continue with computation, it consults the meta level for assistance.

H

X

X

1

X

X

1

1

I

1

1

1

X

Implementing reflective mechanisms increases transport time of information between the GIS and the SBA" F

Reflection mechanisms for working with generic data types hides all specific techniques such as Specific data types from the concrete agents. This facilitates the integration of different data types.

G

The reflection pattern is neutral with respect to this requirement

H

The greater the number of aspects that are encapsulated at the meta level, the fewer performance there are.

I

The developer can create a meta protocol which encapsulates the details of the location by the SIG and the SBA, however it does not prevent programmers from specifying incorrect modifications.

J

The reflextion pattern does not supports the testability

K

The layer pattern is neutral with respect to this requirement

L

The reflection pattern is neutral with respect to this requirement

M

The reflection pattern is neutral with respect to this requirement

N

The reflection pattern is neutral with respect to this requirement

O

The models are interoperable while unsafe changes are not made at the meta level because these may cause damage even if the safest secure protocols have been developed.

P

The reflection pattern is neutral with respect to this requirement

X

X

X

X

X

1

1

1

X

L

1

X

X

M

X

1

X

N

1

X

1

1

1

O

X

1

X

X

P

1

1

1

1

Q

1

X

1

1

1

Additionally, and taking advantage of benefits offered by the GIS for visualization, the Presentation-agents-Control pattern does not exploit their full potential since the SIG will be responsible for the visualization. Therefore the blackboard pattern is the option chosen. Then the simulator which was used for preparation of the project is shown in figure 1:

Figure 1: simulator used for the project [16]

The previous tables can be summarized as shown in Table 11. If the evaluation was positive number "1" is placed, if it was bad sign "x" was placed and if it was neutral sign "0" was placed.

The GIS which was used for preparation of the project is shown in figure 2:

Table 11. Viability of implementation Reflection pattern (a2)

K

The 3 best software architecture patterns were: Blackboard, Broker and Presentation-Abstraction-Control with scores of 7, 8 and 8 respectively. Any winning patterns would be suitable to implement the architecture. Taking into account that the simulation will not run in a distributed environment, the broker pattern would not exploit its greatest strength.

3. RESULTS

(a1)

J

(a3)

(a4)

(a5)

(a6)

(a7)

(a8) 81

Tlamati, Número Especial 3 CICOM 2014 most promising knowledge source. The expense for such deliberation can be justified so long as no adequate explicit algorithm is available for the problem. When such an algorithm emerges, it usually provides higher performance and effectiveness. The Blackboard architecture consequently lends itself best to immature domains in which experimentation is helpful. After research and the gaining of experience, better algorithms may evolve that allow you to use a more efficient architecture. Figure 2: GIS used for the project The integration between the GIS and the SBA is shown in Figure 3

Figure 4: The integration between the GIS and the SBA system using Blackboard pattern (own authorship)

Figure 3: The integration between the GIS and the SBA system using Blackboard pattern (own authorship)

6. ACKNOWLEDGMENTS

The above graph shows that there is consistency between the GIS and agent-based simulation. The simulation shows the movement of several people when an emergency is caused by two torched cars. The firefighters are shown in red, nurses in green, potential victims in blue and houses in magenta.

Our thanks to the District for allowing us deliver the job. Additionally our thanks to Javeriana for giving us the conceptual foundation for the article.

7. REFERENCES

4. FUTURE WORK

[1] Sartipi, K., "Software architecture recovery based on pattern matching," Software Maintenance, 2003. ICSM 2003. Proceedings. International Conference on , vol., no., pp.293,296, 22-26 Sept. 2003 doi: 10.1109/ICSM.2003.1235434

The implemented architecture has some drawbacks associated with coordination capabilities of agents on GIS. It is proposed that future developments will be based on broker and PresentationAbtraction-Control architecture.

[2] Chen Liyan, "Application Research of Using Design Pattern to Improve Layered Architecture," Control, Automation and Systems Engineering, 2009. CASE 2009. IITA International Conference on , vol., no., pp.303,306, 11-12 July 2009 doi: 10.1109/CASE.2009.61

Figure 4 show that agent assistant sometimes cannot find victim agents.

5. CONCLUSIONS

[3] Scheibler, T.; Leymann, F.; Roller, D., "Executing Pipesand-Filters with Workflows," Internet and Web Applications and Services (ICIW), 2010 Fifth International Conference on , vol., no., pp.143,148, 9-15 May 2010 doi: 10.1109/ICIW.2010.29

The Layers pattern is better suited to systems that require reliable operation, because it is easier to implement error handling than with Pipes and Filters. However, Layers lacks support for the easy recombination and reuse of components that is the key feature of the Pipes and Filter pattern.

[4] Jing Dong; Chen, S.; Jun-Jang Jeng, "Event-based blackboard architecture for multi-agent systems," Information Technology: Coding and Computing, 2005. ITCC 2005. International Conference on , vol.2, no., pp.379,384 Vol. 2, 4-6 April 2005 doi: 10.1109/ITCC.2005.149

To summarize, the Blackboard architecture allows an interpretative use of knowledge. It evaluates alternative actions, chooses the best for the current situation, and then applies the 82

Tlamati, Número Especial 3 CICOM 2014 [5] Hewett, M.; Hewett, R., "A language and architecture for efficient blackboard systems," Artificial Intelligence for Applications, 1993. Proceedings., Ninth Conference on , vol., no., pp.34,40, 1-5 Mar 1993 doi: 10.1109/CAIA.1993.366664

[11] Shropshire, J., "Analysis of Monolithic and Microkernel Architectures: Towards Secure Hypervisor Design," System Sciences (HICSS), 2014 47th Hawaii International Conference on , vol., no., pp.5008,5017, 6-9 Jan. 2014 [12] Tae-You Lee; Yong-Ki Ku; Choon-Sung Nam; Dong-Ryeol Shin, "The Microkernel Concept Based Dependable System Architecture," INC, IMS and IDC, 2009. NCM '09. Fifth International Joint Conference on , vol., no., pp.820,823, 2527 Aug. 2009

[6] D'Mello, D.A.; Salian, S.; Sahana; Shetty, N.; Rodrigues, C.; D'Souza, C., "A service broker based architecture for effective discovery and automatic publishing of Internet Web services," Parallel Distributed and Grid Computing (PDGC), 2012 2nd IEEE International Conference on , vol., no., pp.724,729, 6-8 Dec. 2012 doi: 10.1109/PDGC.2012.6449911

[13] Yan Liu; Wong, T., "Component Architecture and Modeling for Microkernel-Based Embedded System Development," Software Engineering, 2008. ASWEC 2008. 19th Australian Conference on , vol., no., pp.190,199, 26-28 March 2008 doi: 10.1109/ASWEC.2008.4483207

[7] Iulia-Maria, T.; Ciocarlie, H., "Best practices in iPhone programming: Model-view-controller architecture — Carousel component development," EUROCON International Conference on Computer as a Tool (EUROCON), 2011 IEEE , vol., no., pp.1,4, 27-29 April 2011 doi: 10.1109/EUROCON.2011.5929308

[14] Ying Shi; Liang ZaoQing; Wang Junli; Wang FuDi, "A Reflection Mechanism for Reusing Software Architecture," Quality Software, 2006. QSIC 2006. Sixth International Conference on , vol., no., pp.235,243, 27-28 Oct. 2006 doi: 10.1109/QSIC.2006.5

[8] Mcheick, H.; Yan Qi, "Dependency of components in MVC distributed architecture," Electrical and Computer Engineering (CCECE), 2011 24th Canadian Conference on , vol., no., pp.000691,000694, 8-11 May 2011 doi: 10.1109/CCECE.2011.6030542

[15] Rehak, M.; Tozicka, J.; Pechoucek, Michal; Zelezny, F.; Rollo, M., "An abstract architecture for computational reflection in multi-agent systems," Intelligent Agent Technology, IEEE/WIC/ACM International Conference on , vol., no., pp.128,131, 19-22 Sept. 2005 doi: 10.1109/IAT.2005.35

[9] Hussey, A.; Carrington, D., "Comparing the MVC and PAC architectures: a formal perspective," Software Engineering. IEE Proceedings- [see also Software, IEE Proceedings] , vol.144, no.4, pp.224,236, Aug 1997 doi: 10.1049/ip-sen:19971512

[16] Gonzalez, Rafael A. 2009. "Validation of Crisis Response Simulation within the Design Science Framework". ICIS 2009 Proceedings. Paper 87. 2009. DOI= http://aisel.aisnet.org/icis2009/87

[10] Hussey, A., "Using design patterns to derive PAC architectures from Object-Z specifications," Technology of Object-Oriented Languages and Systems, 1999. TOOLS 32. Proceedings , vol., no., pp.40,51, 1999 doi: 10.1109/TOOLS.1999.809413

83

Tlamati, Número Especial 3 CICOM 2014

Detección de niños con trastornos de conducta mediante lógica difusa Eloisa M. Vivas Villasana

David G. Maxínez

José M. Martínez Castro

Facultad de Arquitectura e Ingenierías, Universidad Americana de Acapulco. Av. Costera Miguel Alemán No. 1756, Fracc. Magallanes, Acapulco, Gro. CP. 39670

Departamento de Ingeniería en Computación, Universidad Nacional Autónoma de México. Av. Rancho Seco, Esq. Central

Departamento de Sistemas y Computación, Instituto Tecnológico de Chilpancingo, Av. José Francisco Ruiz Massieu #5, Fracc. Villa moderna, CP. 39090, Chilpancingo, Gro

[emailprotected]

[emailprotected]

[emailprotected]

La detección oportuna de estos niños retribuye un beneficio educativo, económico y social en el desarrollo de un país [1]. El problema de la detección se basa en que los datos de entrada para su análisis provienen de información vaga ambigua e imprecisa, por ejemplo, al detectar a un niño latoso •usamos la palabra latoso •, que no tiene un valor real pero que permite identificar una idea. Fuzzy Logic permite no solo captar la idea, sino que además le da un valor o porcentaje de valor a la etiqueta latoso. Con este valor el especialista podrá diagnosticar y cuantificar que tan latoso es un niño y de esta manera determinar con precisión la terapia a seguir.

RESUMEN La presente investigación describe el empleo de la lógica difusa en la detección, evaluación, análisis y valoración de niños con trastornos de conducta. Muestra la forma de adquirir y analizar datos ambiguos, imprecisos y llenos de incertidumbre que provienen de las variables de entrada, para obtener un resultado exacto de valoración para cada una de las tipologías presentadas por los niños con problemas de conducta.

PALABRAS CLAVE fuzzy, logic, trastornos, conducta, detección, económico, social, alteración, trastorno, hiperactividad, déficit, impulsividad, fuzzy.

En la figura 1, se describe como la variable denominada latoso se mueve en un rango de verdad de 100 a 0 % adoptando en el trayecto diversos valores intermedios.

1. INTRODUCCIÓN Específicamente las alteraciones o trastornos del comportamiento o conducta, son aquellas que afectan de forma negativa la relación del niño o niña con su entorno, generalmente se detectan por los familiares o por los maestros que conviven diariamente con ellos y se hace al observar una repetición de eventos que alteran la convivencia grupal, es importante hacer notar que estos infantes llegan en un momento determinado a ser “vistos” como “inmanejables” por las personas de su entorno [2]. El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

84

Figura 1.Descripción de un grado de verdad para la variable latoso.

La variable como se menciono anteriormente puede descomponerse en fuzzy sets, etiquetas, del tipo• muy latoso, moderadamente latoso o poco latoso •, esta descomposición se muestra en la figura 2.

Tlamati, Número Especial 3 CICOM 2014 campos de estudio: sociología, física, biología, finanzas, ingeniería, oceanografía, psicología, etc. Fuzzy Logic refleja lo que la gente piensa en parte modela nuestro sentido del habla, nuestra toma de decisiones y nuestro reconocimiento de vista y sonido.

1.1.1 Etapas de un sistema Fuzzy Los sistemas difusos se analizan en tres etapas denominadas. 1. Fusificación 2. Reglas de evaluación 3. Defusificación Figura 2. Descripción de subconjuntos o fuzzy sets.

la

variable

latoso

en

En la figura 4 se muestra la interrelación entre cada una de ellas.

La forma de obtener un valor real, no •lingüístico•, es asignando a cada fuzzy set un grado de verdad, por ejemplo en la figura 3.2., se muestra como el set denominado muy latoso (A) desciende de un valor 100% verdadero a un valor 0% falso. Se observa que en el punto P1 el grado de verdad es del 80% a la aseveración si el niño es muy latoso.

Figura 4. Etapas de un sistema difuso.

1.1.2. Fusificación La fusificación es el proceso utilizado para convertir los datos imprecisos de entrada en un conjunto difuso para su análisis En el proceso de fusificación el valor numérico de entrada se convierte en un valor borroso (factor de pertenencia) [4].

Figura 3. Asignación de un valor de verdad a una etiqueta fuzzy.

1.1.3. Reglas de Evaluación

1.1 Fuzzy logic La lógica difusa •fuzzy logic•, es una herramienta de análisis que proporciona una manera simple y elegante de obtener una solución a un problema determinado partiendo de información de entrada vaga, ambigua, imprecisa, con ruido o incompleta[3]. La mayoría de los fenómenos que encontramos cada día son imprecisos, es decir, tienen un cierto grado de ambigüedad en la descripción de su naturaleza. Esta imprecisión puede ser asociada, con su forma, posición, momento, color, textura, o incluso en la semántica que describe lo que son. En muchos casos el mismo concepto puede tener diferentes grados de imprecisión en diferentes contextos o tiempo. Un día cálido de invierno no es exactamente lo mismo que un día cálido en primavera. La definición exacta de cuando la temperatura va de templada a caliente es imprecisa –no podemos identificar un punto simple de templado. Este tipo de imprecisión o ambigüedad asociado continuamente a los fenómenos, es común en todos los

Las reglas se determinan considerando el número de fuzy set de cada variable involucrada, por ejemplo si consideramos dos variables de entrada (A y B) y cada variable compuesta por tres fuzzy sets. Variable A= 3 fuzzy set Variable B= 3 fuzzy set Total de Reglas = (3Fuzy sets variable A) X (3 fuzzy set variable B) Total Reglas= 9 Las reglas permiten expresar las condiciones de las variables de entrada en un lenguaje flexible y entendible por el ser humano. Algunas de las características de las reglas que dan esta flexibilidad son: •

85

Las reglas podrían no necesariamente incluir todas las posibles condiciones de entrada.

Tlamati, Número Especial 3 CICOM 2014 • •

DAH2. Parece no prestar atención en actividades lúdicas DAH3.No parece escuchar cuando se le habla directamente. DAH4.Tiene dificultad para realizar sus tareas o actividades DAH5.Se muestra disgustado cuando se le solicita realizar tareas que implican un esfuerzo mental. DAH6.No finaliza y no sigue instrucciones en tareas escolares u obligaciones. DAH7.Extravía objetos necesarios para sus tareas o actividades DAH8.Es descuidado en las tareas o actividades que realiza

Se puede usar la conectividad and o la conectividad or. Pueden existir reglas comparativas (por ejemplo “entre mayor el nivel del agua en el tanque menor la entrada de agua”).

1.1.4. Defusificación. La defusificación consiste en convertir un concepto definido a través de operadores difusos a un valor numérico exacto (es decir, lo contrario a difuso). Generalmente se realiza encontrando el centroide de un determinado fuzzy set.

Trastorno Disocial “TD” TD1.Intimida a otros TD2. Inicia peleas TD3. Manifiesta crueldad física con personas TD4. Manifiesta crueldad física con animales TD5. Ha cometido pequeños hurtos TD6. Ha causado deliberadamente daños a personas o a sus pertenencias TD7. Frecuentemente rompe las reglas TD8. Frecuentemente molesta a sus compañeros Figura 5. Calculo del centroide. Déficit de atención “DA” DA1. Dificultad para mantener la atención DA2. Dificultad para centrarse en una sola tarea o actividad DA3. No presta suficiente atención a los detalles DA4. No sigue instrucciones DA5. No finaliza tareas o juegos DA6. Parece no escuchar DA7. Dificultad para planear, organizar, completar y ejecutar DA8. Se distrae fácilmente DA9. A menudo pierde objetos

2. PLANTEAMIENTO DE LA DETECCIÓN DE NIÑOS CON ALTERACIONES DE CONDUCTA. Las características de los niños con trastornos de conducta se clasifican en [5]. • Hiperactividad “H” • Déficit de atención con hiperactividad “DAH” • Trastorno Disocial “TD” • Déficit de atención “DA”

La propuesta de análisis con fuzzy logic consiste en combinar cada una de estas patologías y determinar su factor de identificación el cual como se menciono anteriormente puede ser del tipo [5].

En cada una de las áreas anteriores los niños presentan diversas patologías. Hiperactividad “H” H1. Movimiento constante de pies y manos H2. Se levanta constantemente H3. Se muestra activo en situaciones donde no es apropiado hacerlo H4. Tiene dificultad para jugar con un objetivo H5. Se muestra intranquilo en actividades de ocio H6. Se le dificulta esperar turno H7. Da respuestas antes de terminar de hacer las preguntas H8. Interrumpe actividades de otros H9. Interrumpe sus juegos o el de sus compañeros

• Déficit de atención con hiperactividad “DAH” DAH1. No presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades.

86

Cognitivo. Dificultad para almacenar, recuperar, reconocer, comprender, organizar y usar la información recibida a través de los sentidos. Autoimagen negativa. La pérdida de confianza en uno mismo, observable por los demás, intensificando sentimientos y acciones negativas que influyen en su desarrollo; no puedo, nunca podré, me pone muy nervioso, no vale la pena, ...etc. Egocéntrico. Característica que define a una persona que cree que sus propias opiniones e intereses son más importantes que las de los demás. No tolera la frustración. La baja tolerancia a la frustración es causa de enojo, depresión e

Tlamati, Número Especial 3 CICOM 2014

• •

incapacidad ante cualquier molestia o problema. Afectivo. Incapacidad para controlar sus emociones. Ausencia de empatía. No se pone en el lugar de otros.

Tabla 3 Características de análisis

y posteriormente cuantificar su valor[6]. En la tabla 1 se muestra la relación que existe entre las características de hiperactividad, cada intersección hace referencia a las diferentes tipologías, por ejemplo C=cognitiva, S=social, A=Afectiva [8].

Características

Variable Entrada. No presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades.

Variable Entrada.

Variable Salida.

Se levanta constantemente.

Problema Cognitivo

3.1 Creación de fuzzy sets Para la variable de entrada. No presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades asignaremos 4 fuzzy set.

Tabla 1. Características de Hiperactividad

• • • •

. En la tabla 2 se muestran las características de hiperactividad y déficit de atención con hiperactividad.

De vez en cuando no termina las tareas empieza -AAlgunas veces no termina las tareas empieza –BMuchas veces no termina las tareas empieza -CTodas las veces no termina las tareas empieza -D-

que que que que

Observe en la figura 6a que a cada fuzzy set le hemos agregado una variable para su identificación (A hasta D)

Tabla 2. Combinaciones de las características de Hiperactividad y Déficit de atención con hiperactividad.

Figura 6a. Fuzzy sets de la variable de entrada “No presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades”.

3. PROPUESTA DE SOLUCIÓN

Para la variable de entrada se levanta constantemente, asignaremos 4 fuzzy sets (véase figura 6b)

Para iniciar con el análisis consideremos las siguientestete tes características presentadas por el infante, tabla 3.

• • • •

Variables de entrada • Se levanta constantemente (H2) • No presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades (DAH1)

Pocas veces se levanta constantemente -EA veces se levanta constantemente -FCasi siempre se levanta constantemente -GSiempre se levanta constantemente -H-

Observe en la figura 7 que a cada fuzzy set le hemos agregado una variable para su identificación (E hasta H)

Variable de salida • Problema Cognitivo

87

Tlamati, Número Especial 3 CICOM 2014 Tabla 3.12. Tabla de combinaciones. No presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades

Se levanta constant emente Figura 6b. Fuzzy sets de la variable de entrada “Se levanta constantemente”.

Para la variable de salida identificación del problema a nivel cognitivo se asignan 4 fuzzy sets • El problema a nivel cognitivo es muy bajo CMB• El problema a nivel cognitivo es bajo CB• El problema a nivel cognitivo es medio – CM• El problema a nivel cognitivo es alto – CA-

Pocas veces (E) A veces (F) Casi siempre (G) Siempr e (H)

De vez en cuando (A)

Algunas veces (B)

Muchas veces (C)

Todas las veces (D)

E-A CMB

E-B CMB

E-C CM

E-D CM

F-A CMB

F-B CB

F-C CM

F-D CM

G-A CB

G-B CB

G-C CM

G-D CA

H-A CM

H-B CM

H-C CA

H-D CA

Las 16 reglas asignadas al proyecto son. •

Figura 7. Fuzzy sets de la variable de salida “Problema a nivel cognitivo”.

3.2. Diseño de las reglas. •

Como se ha mencionado anteriormente las reglas se obtienen combinando los fuzzy sets de cada una de las entradas y relacionándolo con los fuzzy sets de salida. La asignación del fuzzy set de salida depende totalmente del conocimiento del experto, así por ejemplo. Total fuzzy set: - .No presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades = 4 Total fuzzy set - Se levanta constantemente = 4 Total de reglas 4 X 4 = 16

En la tabla 4 se pueden apreciar las combinaciones de las características que estamos ejemplificando. •

88

Regla 1. Si de vez en cuando no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y pocas veces se levanta entonces el problema a nivel cognitivo es muy bajo Regla 2. Si de vez en cuando no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y A veces se levanta entonces el problema a nivel cognitivo es muy bajo. Regla 3.Si de vez en cuando no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Casi siempre se levanta entonces el problema a nivel cognitivo es Bajo. Regla 4. Si de vez en cuando .no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Siempre se levanta entonces el problema a nivel cognitivo es Medio. Regla 5. Si algunas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y pocas veces se levanta entonces el problema a nivel cognitivo es muy bajo. Regla 6. Si algunas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y A veces se levanta entonces el problema a nivel cognitivo es Bajo. Regla 7. Si algunas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Casi siempre se levanta entonces el problema a nivel cognitivo es Bajo. Regla 8. Si algunas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras

Tlamati, Número Especial 3 CICOM 2014

actividades y Siempre se levanta entonces el problema a nivel cognitivo es Medio. Regla 9. Si Muchas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Pocas veces se levanta entonces el problema a nivel cognitivo es Medio. Regla 10. Si Muchas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y A veces se levanta entonces el problema a nivel cognitivo es Medio. Regla 11. Si muchas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Casi siempre se levanta entonces el problema a nivel cognitivo es Medio. Regla 12. Si muchas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Siempre se levanta entonces el problema a nivel cognitivo es Alto. Regla 13. Si Todas las veces .no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Pocas veces se levanta entonces el problema a nivel cognitivo es Medio. Regla 14.- Si Todas las veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y A veces se levanta entonces el problema a nivel cognitivo es Medio. Regla 15. Si todas las veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Casi siempre se levanta entonces el problema a nivel cognitivo es Alto. Regla 16. Si todas las veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Siempre se levanta entonces el problema a nivel cognitivo es Alto.

Figura 8. Registro del alumno.

Para nuestro caso consideremos que la profesora ha asignado un porcentaje a una determinada característica, por ejemplo. • •

Se levanta constantemente 25% No presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades. 45 %

Figura 9. Cuestionario.

Con estos datos se pueden ver los puntos tocados en los fuzzy set de entrada.

3.3. Defusificacion El primer paso para evaluar las reglas es introducir los datos de entrada, que con anterioridad fueron proporcionados por el profesor , esto se aprecia en la figura 8.

Figura 10. Fuzzy sets de entrada asignando un porcentaje.

Como podemos observar esos puntos involucran las siguientes reglas:

Después el profesor debe contestar las preguntas (las cuales están basadas en las características de Hiperactividad, Déficit de atención, Déficit de atención con hiperactividad y Trastorno disocial [7].) tal como se muestra en la figura 9.

89

Regla 5. Si algunas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y pocas veces se levanta entonces el problema a nivel cognitivo es muy bajo.

Regla 6. Si algunas veces no presta atención a los detalles, incurriendo en errores por

Tlamati, Número Especial 3 CICOM 2014 descuido en tareas escolares o en otras actividades y A veces se levanta entonces el problema a nivel cognitivo es Bajo. •

Regla 9. Si Muchas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Pocas veces se levanta entonces el problema a nivel cognitivo es Medio.

Figura 13. Calculo Centroide 3

Regla 10. Si Muchas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y A veces se levanta entonces el problema a nivel cognitivo es Medio.

Regla 10. Si Muchas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y A veces se levanta entonces el problema a nivel cognitivo es Medio.

(0.75) y (0.75) = Muy Bajo (CMB) (0.75) y (0.25) = Medio (CM) (0.25) y (0.75) = Bajo (CB) (0.25) y (0.25) = Medio (CM) Regla 5. Si algunas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y pocas veces se levanta entonces el problema a nivel cognitivo es muy bajo.

Figura 14. Calculo Centroide 4

Multiplicamos los valores y los dividimos entre la suma de los mínimos.

Figura 11. Calculo Centroide 1

Regla 9. Si Muchas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y Pocas veces se levanta entonces el problema a nivel cognitivo es Medio.

Cognitivo = 36.66 Como puede observarse tenemos un valor numérico asociado a un problema cognitivo que puede ser evaluado para su tratamiento. Figura 12. Calculo Centroide 2

4 CONCLUSIONES

Regla 6. Si algunas veces no presta atención a los detalles, incurriendo en errores por descuido en tareas escolares o en otras actividades y A veces se levanta entonces el problema a nivel cognitivo es Bajo.

El proceso de detección de niños con alteraciones de conducta presenta serios problemas, algunos de ellos son:

90

Tlamati, Número Especial 3 CICOM 2014 •

• •

Sin embargo, muchos de los trastornos psiquiátricos de los adultos pueden identificarse retrospectivamente en alteraciones que se iniciaron en la infancia de modo que su abordaje requiere siempre integrar aspectos neurobiológicos, psicológicos, familiares y sociales.

Ser discriminados en el desempeño o desarrollo de sus actividades en deterioro de su confianza básica o autoestima según la edad. Son identificados de manera ambigua y sin fundamentos. Con una marcada inclinación a “etiquetarlos “en un determinado momento llegan a ser “vistos” como “inmanejables” por las personas de su entorno. No existe orientación real y objetiva para identificar el tipo de tipología que presentan. No existe el recurso humano necesario en las escuelas que identifique, registre o describa apropiadamente la situación. No existen juegos o juguetes orientados a este tipo de comportamientos.

REFERENCIAS [1] David G Maxinez, Eloísa Vivas Villasana, José Mario Mtez . Impacto económico, educativo y social de las alteraciones de conducta en los niños y su detección a través de técnicas de ingeniería. [2]J. Rodríguez Sacristán. Psicopatología del niño y del adolescente. Universidad de Sevilla. 1995. [3] Zadeh, L. Fuzzy logic, IEEE Computer, 1:83, 1988. [4] Morillas Raya, A. (2006): Introducción al análisis de datos difusos. [5]Bullen, M.; E. Flamoholtz y S. Sackman (1989). Human Resource Accounting: A State-of-the-Art Review.Journal of Accounting Literature, Vol. 8. [6] Vegas, E. y Patrow, J. (2008). Incrementar el aprendizaje estudiantil en América Latina. El Desafío para el Siglo XXI. Washington, D.C. TheWorld Bank. [7]Hill, J. Disorders Of Personality Child and Adolesent Psychiatry. M. Rutter and E. Taylor. Massachusetts, Blackweel. Edition; 723-736. 2006. [8] Investigación sobre Trastornos del Comportamiento en niños y adolescentes. Proyecto Esperi. Fundación Internacional O’Belen. España

Por consecuencia se presume que no se tiene un conocimiento claro de estas alteraciones de conducta y menos del manejo. Otro de los aspectos inherentes a destacar es el impacto social derivado de las alteraciones en los adultos que no pudieron ser identificadas en la infancia. La niñez se reconoce en psicología como un período de vulnerabilidad y plasticidad en el desarrollo progresivo hacia la personalidad adulta. Por ello y por su especificidad, los trastornos o alteraciones de conducta que afectan la niñez y la adolescencia se presentan en la edad adulta.

91

Tlamati, Número Especial 3 CICOM 2014

Diseño de una arquitectura web distribuida de alta disponibilidad para sistemas de educación a distancia por medio de Oracle WebLogic Server Andrés Felipe Díaz Ramos

Juan José Orjuela Castillo

Universidad Distrital Francisco José de Caldas Bogotá, Colombia

Universidad Distrital Francisco José de Caldas Bogotá, Colombia

[emailprotected]

[emailprotected] language and development on an Oracle server Weblogic Server applications are proposed.

RESUMEN Este artículo aborda, como objeto de estudio y de investigación, el desarrollo y la implementación de sistemas de educación a distancia en un entorno distribuido altamente disponible y escalable. Actualmente, los sistemas web que se encargan de proporcionar aulas educativas necesitan de estas características. Los sistemas web en el mercado tienen una capacidad de usuarios concurrentes muy limitada y los servidores que contienen el sistema tienden a caerse y a fallar frecuentemente. Una solución a este problema es plantear un diseño de una arquitectura distribuida el cual se caracterice por ser de alta disponibilidad y escalable. Para eso, se propondrá un diseño de una arquitectura lógica que esté implementada en lenguaje de desarrollo Java y en un servidor de aplicaciones Oracle Weblogic Server.

Palabras clave Sistemas Distribuidos, Sistemas Web de Educación a Distancia, Arquitectura lógica, Oracle WebLogic Server, AJAX 1. INTRODUCCIÓN Los sistemas web de educación a distancia (EaD) requieren de herramientas de software ágiles y confiables, para mejorar la disponibilidad de los recursos que se suben en la Internet. Por eso, surge el desarrollo de sistemas distribuidos para dar grandes ventajas a los servidores web, como la escalabilidad y la alta disponibilidad. El presente artículo tiene como objetivo proponer el diseño de la arquitectura lógica de un sistema web distribuido de educación y formación a distancia, destacando el papel desempeñado de la replicación y el balanceo de carga transaccional para aumentar la disponibilidad de los recursos en la Internet. Por lo cual, se definen los componentes necesarios de la arquitectura lógica del diseño propuesto para establecer servicios web altamente disponibles y las interacciones que tiene el servidor de aplicaciones en el sistema. Oracle WebLogic Server 12c es un servidor de aplicaciones implementado en lenguaje Java. En él se pueden realizar arquitecturas distribuidas con las características necesarias para tener entornos web de alta disponibilidad. Además, como parte adicional al documento, se propone el uso de AJAX en la capa de presentación. Unido con Hibernate, permite realizar aplicaciones muy robustas en poco tiempo.

ABSTRACT This article discusses, as an object of study and research, development and implementation of distance education systems in a highly available and scalable distributed environment. Currently, web systems that are responsible for providing educational classrooms need these features. Web systems on the market have a limited capacity for concurrent users and servers that contain the system tend to fall and fail often. One solution to this problem is to propose a design of a distributed architecture which will be characterized by high availability and scalability. For that, design a logical architecture is implemented in Java El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

2. EDUCACIÓN A DISTANCIA La educación a distancia es una estrategia educativa basada en la separación espacio-temporal de las actividades de enseñanza y aprendizaje, a través de modos y medios de comunicación adecuados para tal fin, que aparecen como resultado del desarrollo acelerado de la Informática, que es la ciencia que se encarga de la utilización del manejo de la información, y de la Telemática, que es la ciencia que se encarga de transmisión de datos a distancia entre y por medio de ordenadores [8]. Es así, como la educación a distancia a través de la tecnología ha proporcionado nuevos

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

92

Tlamati, Número Especial 3 CICOM 2014 canales de comunicación, haciendo que la información y el conocimiento sean más accesibles a las personas. Los más recientes estudios del Consejo de Europa sobre la educación a distancia han destacado las tendencias a la internacionalización de los servicios, a la federación en asociaciones internacionales y a la utilización creciente de nuevas tecnologías de la información, entre las instituciones educativas del sector. Con acierto, los informes han observado que el principal motor y la variable inicial del desarrollo en curso de la educación a distancia en Europa es el incremento cualitativo y cuantitativo de la demanda; mientras que se registra una tendencia creciente a la dispersión e inconexión de la oferta [12]. Actualmente, los sistemas de educación a distancia emplean varios medios de comunicación para la interactividad entre docentes y/o alumnos como: Internet, foro, video-conferencia, blog, chat, correo, entre otros. La información, normalmente en multimedia, es subida a la web pocas veces pero descargada muchas veces en diferentes espacios de tiempo, por lo tanto, se necesita mantener disponible el mayor tiempo posible. Los ejemplos más conocidos de este tipo de entornos son Blackboard y Moodle.

servicio, y que buscan mejorar la confiabilidad y la disponibilidad, son: Aumentar la confiabilidad al disponer de respaldos independientes de cada archivo. Si un servidor falla o se pierde en forma permanente, no se pierden los datos; y, permitir el acceso a un archivo, aun cuando falle un servidor de archivos. El fallo de un servidor no debe hacer que todo el sistema se detenga hasta cuando aquél se pueda volver a arrancar [2]. 4. BALANCEO DE CARGA Uno de los propósitos de los sistemas distribuidos es permitir que las aplicaciones y los procesos de servicio evolucionen concurrentemente sin competir por los mismos recursos y explotando los recursos computacionales disponibles [3]. Esto se facilita usando balanceadores de carga transaccional que distribuyan las peticiones de Internet entre los servidores del sistema. El balance de carga en un clúster se puede mantener con un procedimiento que divide de la manera más equitativa posible el trabajo que se ha de repartir entre los procesadores, y así evitar el desbalance producto de la misma asignación [1]. Los balanceadores de carga pueden ser soluciones hardware con software (firmware) o sólo software, y existen varios métodos y algoritmos (tipos) para realizar el balanceo. El balanceo de carga es la manera de distribuir peticiones de Internet entre los servidores del sistema.

3. SISTEMAS DISTRIBUIDOS Los sistemas distribuidos buscan potenciar y mejorar el acceso a los sistemas informáticos web, entre estos, los usados para la educación a distancia. Una arquitectura distribuida se plasma como una excelente alternativa de solución para la enseñanza a distancia, además de presentar ventajas sobre los sistemas tradicionales, que poseen sus recursos de enseñanza en forma centralizada [13]. Según Coulouris et al. [3], los factores que logran la distribución de objetos y procesos en un sistema son numerosos y de considerable significado. Todo comenzó en los años setenta con los sistemas de tiempo compartido. Los beneficios de la distribución se reconocieron rápidamente, y la idea de compartir se trabajó ampliamente. La disponibilidad de redes de computadores de prestaciones medias y la continua necesidad de compartir recursos de hardware relativamente costosos como impresoras y almacenamiento en disco condujeron al desarrollo de los sistemas distribuidos de los años setenta y ochenta. Hoy, el compartir recursos se da por descontado. Pero compartir datos en gran escala de forma efectiva continúa siendo un reto mayor. Sin embargo, el importante despliegue de los Sistemas de Proceso Distribuido en los últimos años ha sido inducido por las necesidades organizativas de la empresa como por la acelerada evolución de las tecnologías [6]. En esta evolución, las BDD (Bases de Datos Distribuidas) surgieron como una necesidad para dar solución a los Sistemas de Información donde los servicios ofrecidos por una BD (Base de Datos) centralizada suelen ser poco eficientes, especialmente cuando el Sistema de Información es soportado en red, la cual contiene un conjunto limitado de nodos ubicados en distintos sitios [4]. Un sistema distribuido no sólo proporciona alta disponibilidad de recursos, sino que también brinda una mayor rapidez y eficacia al momento de transmitir los datos. Por medio de un arquitectura distribuida tendremos la capacidad de escalar el sistema tanto vertical como horizontalmente si el sistema lo requiere. Con frecuencia los sistemas distribuidos de archivos proporcionan la réplica de archivos como servicio a sus clientes. En otras palabras, se dispone de varias copias de algunos archivos, donde cada copia está en un servidor de archivos independiente. Las principales razones para la existencia de tal

5. AJAX AJAX (Asynchronous JavaScript And XML) es la técnica que permite generar aplicaciones web de forma interactiva al manejar una estructura que permite al servidor web comunicarse con el navegador del usuario por componentes individuales. AJAX intenta proveer aplicaciones web con las características de las aplicaciones del escritorio y permite que los datos que se cargan a la aplicación no requieran una recarga del sitio web; de esta forma, permite más velocidad y robustez en la aplicación web [5]. Aunque el nombre de AJAX es nuevo, las tecnologías enumeradas como fundamento de esta técnica con JavaScript XMLHttpRequest y DOM - han existido desde hace algún tiempo. De hecho, la última incorporación a este conjunto de tecnologías la XMLHttpRequestObject - fue introducido por Microsoft en 1999 con el lanzamiento de Internet Explorer 5.0 y fue implementado como un componente ActiveX. Una de las razones por las cualesAJAX ha cobrado impulso y popularidad es la XMLHttpRequestObject y la forma en que este objeto hace posible que los desarrolladores puedan comunicarse de forma asincrónica con los servidores subyacentes y los servicios de negocio que utilizan las aplicaciones Web. Los sitios populares como Google Gmail y Google Suggest están utilizando técnicas AJAX para proporcionar a los usuarios interfaces ricas en contenidos [7]. 6. ARQUITECTURA ORIENTADA A SERVICIOS La Arquitectura Orientada a Servicios (SOA) es un estilo de arquitectura para la construcción de sistemas basados en las interacciones de servicios débilmente acoplados y componentes autónomos. Cada servicio expone los procesos y conductas a través de los contratos, que se componen de mensajes a direcciones que se pueden descubrir los llamados puntos finales. El comportamiento de un servicio se rige por las políticas que son externas al propio servicio. Los contratos y mensajes son usados por los componentes externos llamados consumidores de servicios [14]. 93

Tlamati, Número Especial 3 CICOM 2014 La tecnología y el lenguaje de desarrollo en Java permite el desarrollo de aplicaciones web divididas por componentes, con esto se quiere segmentar una aplicación robusta en módulos lo suficientemente pequeños para un mejor procesamiento y si es necesario poder desplegar o ejecutar cada módulo en un servidor o nodo distinto, y que esto sea transparente para la aplicación y para el usuario final. A finales de 1990, ya que Java se reforzó por la aparición de tecnologías diferentes (tales como RMI, JTA y CORBA) que abordaron las necesidades de la empresa de aplicaciones a gran escala, surgió la necesidad de un marco de componentes de negocio que pudiera unificar estas tecnologías e incorporarlas bajo un modelo de desarrollo de componentes estándar. A partir de esta necesidad nació Enterprise JavaBeans (EJB). EJB es una arquitectura de componentes de servidor que simplifica el proceso de construcción de aplicaciones de componentes empresariales distribuidos en Java.Con su utilización es posible escribir aplicaciones escalables, fiables y seguras sin escribir código de infraestructura [15]. El Framework Java Server Faces (JSF) en esencia, es un marco de componentes de interfaz de usuario para las aplicaciones J2EE. Antes de empezar a cubrir los componentes de interfaz de usuario (y por los componentes de interfaz de usuario nos referimos a bloques de construcción para los desarrolladores de aplicaciones, no los componentes del marco en sí). JSF es, después de todo, un framework que trata de resolver los mismos problemas que el mencionado framework Apache Tapestry u Oracle ADF UIX, que han existido desde hace bastante tiempo y que han demostrado ser exitosos. El diferenciador que aporta JSF, que otros marcos similares no tienen, es el respaldo de una especificación estándar (JSR-127). Debido a que JSF es parte de la especificación estándar J2EE, es una prioridad para todos los principales proveedores de herramientas de J2EE en el mercado (incluyendo Oracle, IBM y Borland) que lo soporte, que a su vez garantizar á una amplia adopción y buenas herramientas apoyo [7].

Figura 1. Arquitectura web distribuida propuesta el elemento más importante de la tecnología Oracle de Clustering de base de datos de disco compartido [10] [11]. 8. DISEÑO PROPUESTODE LA ARQUITECTURA DISTRIBUIDA Las aulas virtuales deben contar con algunas funcionalidades básicas para poder considerarse como aula virtual y que cumpla el objetivo de la educación a distancia. Estas funcionalidades son: Gestión de contenidos, comunicación de docente a estudiante, de estudiante a docente y de estudiante con estudiante y la evaluación sobre los contenidos educativos [9]. Inicialmente, se desarrollaran y desplegaran tres componentes. Cada uno cumpliendo con las tareas que cada funcionalidad mencionada anteriormente debe cumplir. Se propone una solución con los estándares y mejores prácticas en el desarrollo de aplicaciones Java orientado a servicios. El sistema está constituido por varios componentes como se visualiza en la figura 1. El primero de ellos, es el módulo de presentación en donde se encuentra toda la capa de presentación. Luego de esto, encontramos los componentes de lógica del negocio los cuales cada uno por aparte se encarga de una serie de tareas; estos son los intermediarios entre la base de datos y la capa de presentación. Cada componente está desplegado en un servidor diferente para dar la mayor capacidad de procesamiento a cada uno de ellos. Inicialmente cada componente de la aplicación se replica en otros servidores. Por medio del balanceador de carga se manejará el tráfico de peticiones por parte del usuario. Todo esto para que la arquitectura lógica esté diseñada para que el sistema web tenga alta disponibilidad de sus recursos. Todos los componentes son independientes entre ellos, para que así, se pueda desarrollar, a largo plazo, nuevos componentes con nuevas funcionalidades e interconectarlas con los componentes ya existentes, además de ser necesario una mayor disponibilidad o mayor procesamiento de transacciones, el sistema está dado para replicar los componentes que sean necesarios y desplegarlos en nuevos servidores. Lo que permite que el sistema sea escalable en el tiempo. Además, de darle alta disponibilidad al sistema, desplegar los mismos componentes en servidores distintos le proporciona a todo el sistema una mayor tolerancia a fallos, ya

7. BEA ORACLE WEBLOGIC SERVER Oracle tiene la capacidad de brindarnos las tecnologías necesarias para poder crear una arquitectura distribuida. El servidor de aplicaciones WebLogic, en su más reciente versión, cuenta con la capacidad de hacer un clúster con el objetivo de poder distribuir la aplicación en varios componentes y poder usarse desde distintos servidores. Además, WebLogic tiene la capacidad de procesar tráfico de peticiones hacia un mismo nodo o servidor, en el cual, se calcula y se decide cuál nodo está disponible y cuáles están ocupados, y con base en esto, se envía la petición al nodo disponible para que la procese de inmediato o la deje pendiente para su posterior procesamiento. Oracle WebLogic Server 11g y 12c proporciona un fuerte apoyo a los Real Application Clusters(RAC), que minimizan el tiempo de acceso de base de datos al tiempo que permite el acceso transparente a las funciones de gestión del pool de conexiones que maximiza el rendimiento y la disponibilidad de conexión. Los Real Application Clusters (RAC) permiten ejecutar varias instancias de base de datos en distintos servidores de la agrupación frente a un conjunto compartido de archivos de datos, también conocida como la base de datos. La base de datos abarca múltiples sistemas de hardware y sin embargo aparece como una sola base de datos unificada de la aplicación. Esto permite la utilización de hardware de consumo para reducir el coste total de propiedad y proporcionar un entorno de computación escalable que soporta varias cargas de trabajo de aplicación. Oracle RAC es 94

Tlamati, Número Especial 3 CICOM 2014 que si un servidor llegara a fallar el sistema podría consumir el mismo servicio desde otro servidor. Asi mismo, el sistema cuenta con una base de datos (BD) principal y una secundaria, dónde la BD secundaria es el nodo suscriptor de la BD principal y con esto, se pretende dar al sistema tolerancia a fallos a nivel de base de datos a través de la replicación.

10. REFERENCES [1] A. Barreto and Y. Cardinale. Load balancing on a cluster computing based in the routh-hurwitz criterion. In Computing Conference (CLEI). IEEE, 2013. [2] J. F. Bastidas, H. Carrillo, D. E. Cifuentes, and et al. Sistemas Operativos Distribuídos. Publicaciones Icesi, 2010. [3] G. Coulouris, J. Dellimore, and T. Kindberg. SISTEMAS DISTRIBUIDOS. Conceptos y diseño. Pearson Educación S.A., Madrid, España, 2001. [4] D. Cuadra, E. Castro, and et al. Desarrollo de Bases de Datos. Casos Prácticos desde el análisis a la implementación. Alfaomega grupo Editor, México, 2013. [5] H. A. Flórez. Arquitectura multicapa mediante AJAX y ORM. Vínculos, 7(1):3{16, Junio 2010. [6] J. García, S. Ferrando, and M. Piattini. Redes para Proceso Distribuido. ‫ ٮ‬Area Local, Arquitecturas, Rendimiento, Banda Ancha. Alfaomega grupo Editor, México, 2001. [7] J. Jacobi and J. Fallows. Pro JSF and Ajax. Editorial Apress, 2006. [8] C. H. Martínez. La educación a distancia: sus características y necesidad en la educación actual. Educación, 17(33):7{27, Septiembre 2008. [9] I. Martínez. Moodle, la plataforma para la enseñanza y organización escolar. Escuela de Magisterio Victoria. UPV / EHU, pages 5{8. [10] Oracle. Oracle real application clusters (rac). Oracle, page 2, June 2013. [11] Oracle and Nec. Active gridlink for rac: Intelligent integration between weblogic server and oracle real application clusters. Oracle, pages 3{4, June 2013. [12] J. L. Orihuela. Satélites para la educación a distancia en Europa. ¿Una solución en busca de un problema? Comunicación y Sociedad, 1(2):205{220, 1993. [13] D. A. Ovalle and J. A. Jiménez. Ambiente inteligente distribuido de aprendizaje: Integración de ITS y CSCL por medio de agentes pedagógicos. Escuela de Ingeniería de Antioquia (EIA), (6):89{104, Diciembre 2006. [14] A. Rotem. SOA Patterns. Editorial Mannung, 2012. [15] J. Wetherbee, C. Rathod, R. Kodali, and P. Zandrozny. Beginning EJB 3. Editorial Apress, 2006.

9. CONCLUSIONES Los siguientes comentarios finales muestran el sentido de la investigación, el análisis y el diseño de la propuesta mostrada en este artículo para el problema de la disponibilidad de los recursos en un sistema web de educación a distancia. Con el paso de los años Oracle se ha vuelto una de las empresas de tecnología más importantes del mundo, sus grandes Figure 1: Arquitectura web distribuida propuesta desarrollos tecnológicos hacen que el diseño de la arquitectura propuesta en este artículo sea posible. WebLogic es un servidor de aplicaciones que cuenta gran variedad de funcionalidades y servicios entre los cuales entre los cuales está el Clustering, la replicación y el balanceo de cargas. Después de buscar el lenguaje de desarrollo más apropiado para el desarrollo del sistema propuesto, encontramos que Java es el más apropiado. Java cuenta con una serie de librerías y frameworks que facilitan el desarrollo de aplicaciones web, además de esto es unos lenguajes open source, lo cual hace que el desarrollo de aplicaciones en este lenguaje sea de bajo costo. A partir de la investigación sobre balanceo de carga, se concluye que existe una amplia gama de algoritmos que pueden aplicarse a los sistemas distribuidos de educación a distancia. Sin embargo, para poder escoger el más adecuado, se tienen que evaluar muchos datos, que en algunos casos, no son fáciles de obtener. Debido a la naturaleza del problema y después de analizar las diferentes arquitecturas de software existentes, se concluyó que la arquitectura orientada a servicios es la que mejor se adapta a las necesidades del entorno web enfocado a la alta disponibilidad; por lo cual, se han utilizado algunos de sus componentes y buenas prácticas comprobadas para realizar el diseño propuesto. Luego de realizar el proceso investigativo mencionado anteriormente, fue necesario tener en cuenta los conceptos del proceso de intercambio de información entre los diferentes elementos del sistema, que fue de vital importancia, para poder realizar el proceso de comunicación de la arquitectura propuesta.

95

Tlamati, Número Especial 3 CICOM 2014

Análisis del actual desarrollo de aplicaciones móviles sobre astronomía para dispositivos basados en Android Analuz Silva Silverio

Mario A. De Leo Winkler

René E. Cuevas Valencia

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Av. Lázaro Cárdenas S/N, CU +52 7471058300

Universidad Nacional Autónoma de México Instituto de Astronomía Universidad 3000, CU Coyoacán +52 5510485884

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Av. Lázaro Cárdenas S/N, CU +52 7473990409

[emailprotected]

[emailprotected]

[emailprotected]

download website Google Play and analyze the general situation in this area at the present time; based on these results we determine which themes to focus on to develop or improve applications for education and scientific outreach in astronomy.

RESUMEN El desarrollo de aplicaciones móviles con fines de información astronómica de diverso tipo tiene poco tiempo de haber surgido. En éste documento se presenta una investigación que muestra que dada la evolución que ha tenido Android como sistema operativo en los últimos años, el desarrollo de aplicaciones para ésta plataforma ésta adquiriendo cada vez mayor relevancia tanto por su accesibilidad a la población en general, como por la estandarización que está empezando a implicar su uso. Por ello se realizó la toma de una muestra representativa de aplicaciones con fines de difusión de la astronomía presentes en la tienda de descargas Google Play y se hizo un análisis de la situación general en la que se encuentra ésta área, y poder en base a esos resultados determinar en qué temáticas enfocarse para desarrollar o mejorar aplicaciones con fines de educación y divulgación científica de la astronomía.

Palabras Clave Android, aplicaciones móviles, apps, software astronómico, astronomía.

Keywords Android, mobile applications, apps, astronomical software, astronomy.

1. INTRODUCCIÓN En la actualidad, la tecnología se encuentra en una fase de transición en la que el uso de las PCs y los dispositivos móviles ésta pasando por una “fusión” la cual está generando dispositivos híbridos con la potencia de un computador pero con la portabilidad práctica de un móvil.

ABSTRACT The development of mobile applications focused on providing astronomical information of various kinds has recently emerged. This document presents our research showing that given the developments that have happened in the Android operating system in recent years, the development of applications for this platform is becoming increasingly important, both for its accessibility to the general population, as for the standardization that is starting to surface due to its use. Therefore, we study a representative sample of applications for astronomical outreach available at the

Ésta evolución en el hardware ha permitido que el desarrollo de aplicaciones que realizan cálculos precisos y rápidos puedan ser adaptados también a la creación de software astronómico, y que aplicaciones que podían resultar impensables en otro tiempo, sean ahora posibles y accesibles a la población en general. El uso de estos nuevos dispositivos ha crecido de forma dramática en los últimos años. Entre los dispositivos que se encuentran actualmente en el mercado, las principales plataformas de sistemas operativos son: Android, iOS y Windows Phone. De dichos sistemas, Android es actualmente el más extendido en el mundo, a causa de la variedad de fabricantes de dispositivos que han optado por el uso de éste sistema en sus productos, lo que ha permitido a los consumidores con un presupuesto relativamente pequeño tener acceso a algún dispositivo con dicho sistema operativo. Así pues, no se puede decir lo mismo de los costos considerablemente más elevados de los productos de Apple y Microsoft, reducidos a un mercado de mayores ingresos, y que en sus respectivas tiendas de descargas disponen de un desarrollo relativamente menor al que se presenta para Android recientemente. Esta información puede ser corroborada por los

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

96

Tlamati, Número Especial 3 CICOM 2014 datos de la “International Data Corporation” (IDC) [1] la cual puede ser observada en la Figura 1.

Figura 1. Worldwide Smartphone Platforms Market Share.

Astronomy

Cielo Nocturno

Night Sky

3

Universo

Universe

4

Cosmos

Cosmos

5

Astro

Astro

6

Sistema Solar

Solar System

7

Estrella

Star

8

Galaxia

Galaxy Telescope

9

Telescopio

10

Nebulosa

Nebula

11

Planetario

Planetarium

12

Júpiter

Jupiter

13

Saturno

Saturn

14

Luna

Moon

15

Satélite

Satellite

16

Cometa

Comet

17

Asteroide

Asteroid

18

Cuerpo Celeste

Celestial Body

También durante ésta selección se tomó en cuenta que tan apegada estaba la descripción de cada software con el contexto e intención de divulgación científica y enfoque astronómico. La selección se restringió para no utilizar las aplicaciones que requerían de un importe económico para ser instaladas, ya que la intención de este estudio es verificar las aplicaciones existentes que sean accesibles sin importe extra, y pensar en el desarrollo de nuevas aplicaciones o mejorar aplicaciones ya existentes. Esto con el fin de lograr un acercamiento de la población en general a la astronomía a través de éstos recursos electrónicos, y por ende, sin fines de lucro.

2. MÉTODO 2.1 Selección de la Muestra Representativa Para Android, Google posee una tienda de descargas de aplicaciones la cual es conocida como Google Play. A través de ésta se puede hacer la búsqueda de aplicaciones seguras, que ya han sido aprobadas por Google para ser ofertadas con cierta garantía de que no dañarán al dispositivo del usuario. Se requirió tomar una muestra de las apps que tenía en existencia Google Play con ejemplos de todos o al menos de los principales tipos de aplicaciones de astronomía.

Dentro de la selección también fueron descartadas varias aplicaciones que por ser similares o inferiores a otras (en las características que ofertaban) resultaban poco interesantes al estudio. Como datos relevantes de las aplicaciones seleccionadas (ver Tabla 2) se tomaron: •

La última versión en la que se encontraban y la fecha de última actualización. Dichos parámetros sirven de guía para apreciar cuánto y qué continuidad se le ha dado al desarrollo de cada una de estas aplicaciones.

Idioma. Con el fin de tener una comparativa de desarrollo de las apps entre español e inglés.

La cantidad de descargas que han tenido dichas aplicaciones. Lo que indica la popularidad que han tenido, sirviendo así como un parámetro más que puede llegar a ser útil para determinar algún patrón que haga más atractiva a una aplicación que se desarrolle en el futuro.

La calificación promedio dada por los usuarios. Otro dato que también da una línea junto con el parámetro

Para ello se decidió proceder con la indagación en los contenidos de la tienda de descargas para finalmente generar una muestra representativa de 40 aplicaciones móviles relacionadas con la astronomía existentes para el uso en dispositivos con Android. Al ingresar a la tienda de descargas, se hizo uso del buscador ingresando una selección de las palabras clave más relacionadas y buscadas en el campo de estudio de la Astronomía tanto en español como en inglés (ver Tabla 1). Tabla 1. Palabras clave más buscadas con relación a la astronomía Palabras Español

Astronomía

2

Las aplicaciones se fueron seleccionando por el orden de prioridad con la que aparecían en la búsqueda.

Por lo anterior, se puede suponer que el impacto de una aplicación sería mayor teniendo una investigación y un análisis de la situación del software astronómico disponible para dispositivos con el sistema operativo Android. La intención principal del estudio se enfoca en la posibilidad de dar mayor exposición a la divulgación científica de la astronomía a través de aplicaciones para esta clase de dispositivos y por ello se requiere definir en qué temática astronómica hace falta profundizar en el desarrollo de nuevas aplicaciones o bien mejorar aplicaciones existentes.

No.

1

Inglés 97

Tlamati, Número Especial 3 CICOM 2014 anterior de identificación de lo que pudo agradar o disgustar de cada aplicación.

ofrecían con respecto a las aplicaciones que fuesen similares a éstas dentro de la selección. Durante la revisión se hizo un análisis en cada aplicación de los aspectos positivos y negativos en el manejo de la interfaz, de la calidad del contenido informativo y/o funciones que ofreciese y de los atractivos visuales que destacasen.

2.2 Revisión de la Muestra Para hacer la prueba de cada una de las aplicaciones, se utilizó un celular Motorola XT1032 Moto G 8GB con especificaciones de un dispositivo de gama media [2]. Esto resulta importante, ya que el dispositivo para pruebas debe estar dentro del presupuesto del usuario promedio de esta clase de dispositivos.

Con base en las características que ofrecían las apps, se generó una clasificación, la cual se delimitó de la siguiente manera: • • • • •

De entre las aplicaciones astronómicas se procedió a generar una clasificación de categorías principales, ya que varias de estas presentaban características similares, lo cual facilitaría la comparación entre ellas.

Planetarios Enciclopedias digitales Herramientas para observación astronómica Simuladores Juegos

Los análisis se fueron estructurando en base a las comparaciones hechas entre las aplicaciones seleccionadas, es decir, lo que Tabla 2. Aplicaciones móviles de astronomía seleccionadas presentadas en orden alfabético.

Español

Fecha de Actualización 06/04/2014

No. de Descargas 226

Calificación promedio de usuarios (1 al 5) 4,2

Inglés

09/03/2011

394

3,2

Inglés

07/09/2013

457

4,2

Aplicación

Versión

Idioma

Asteroid Tracker [3]

2.2.6

Astro [4]

1.1.1

Astro Tools [5]

1.24

Astronomía Espacio – ErgoSky [6]

N/A

Inglés

27/01/2014

209

3,9

Astronomy – WhereIsIt [7]

1.04

Inglés

10/08/2013

9

3,9

AstroPhysCalc [8]

1.0

Inglés

22/09/2012

2

4,0

Astroviewer 3D [9]

0.1.2

Inglés

02/01/2014

346

3,7

Catálogo Messier – Astronomía [10]

7

Español

16/09/2013

94

4,2

Comet Book [11]

1.3

Inglés

17/12/2013

112

3,7

Cosmos Navigator [12]

1.0.2

Inglés

13/03/2014

263

4,4

Dravidy [13]

2.7

Inglés

31/01/2014

152

3,4

FOViewer Deluxe Free [14]

2.0

Inglés

16/10/2012

39

4,1

Gratis Astro Clock LWP [15]

1.65

Inglés

28/03/2014

308

4,3

ISS Detector [16]

2.0.61

Español

24/04/2014

21,570

4,6

Jupiter Simulator [17]

2.0

Español

21/01/2014

99

4,4

Just Chaos [18]

1.1

Inglés

12/05/2013

256

3,3

Mapa Estelar [19]

2.39

Español

09/01/2014

37,563

4,2

Messier Catalog – Astronomical [20]

1.0

Inglés

17/08/2013

110

4,4

Meteor Shower Calendar [21]

1.8

Inglés

23/04/2014

1,908

4,3

Moons of Jupiter [22]

1.4

Inglés

22/04/2014

32

4,6

Moons of Saturn [23]

1.1

Inglés

07/02/2014

7

3,3

Motion Planet [24]

1.1

Inglés

08/01/2014

124

3,5

NASA App [25]

1.43

Inglés

23/10/2013

15,235

4,4

Night Sky Tools – Astronomy [26]

2.2.5

Inglés

17/04/2014

1,375

4,4

Planetarium [27]

1.1.7

Inglés

16/02/2014

581

4,1

PlanetDroid [28]

4.8.0

Español

05/03/2014

417

4,5

Planetoid: Solar Planet Orrery [29]

0.6

Español

22/05/2012

102

3,5

Pocket Planets Lite [30]

1.0.4

Inglés

18/07/2013

1,550

4,4

98

Tlamati, Número Especial 3 CICOM 2014 Satellite AR [31]

2.4

Inglés

22/09/2011

5,330

4,3

Scheiner Calculator [32]

1.0

Inglés

22/02/2013

10

4,6

Shooting Stars [33]

1.12

Inglés

03/06/2013

109

3,7

SkEye | Astronomy [34]

6.6.1

Inglés

23/12/2013

5,160

4,4

Sky Map [35]

1.6.4

Español

31/08/2011

319,391

4,6

SkyORB [36]

2.2.9

Español

29/04/2014

669

3,7

Solar System Scope [37]

1.8.0

Español

17/04/2014

1,804

4,4

Solar System Simulator Lite [38]

1.0

Inglés

08/05/2013

18

3,6

Star Expedition [39]

1.1

Inglés

10/04/2014

1

N/A

StarLog Free [40]

2.3

Inglés

05/02/2013

19

4,3

The Night Sky Lite [41]

1.4.2

Inglés

02/04/2013

3,593

4,1

Cabe mencionar que muchas de las aplicaciones presentan características hibridas dentro de la anterior clasificación, por lo que a esas apps se recurrió a colocarlas dentro del tipo de aplicaciones que fuese más próximas a sus funciones principales.

direccionamiento de telescopios Celestron COSMOS 90GT WiFi Telescope vía Wi-Fi Direct. Mapa Estelar [19] Aspectos Positivos: Contenidos muy completos. Tiene gráficos excelentes, menús muy cuidados y diseño sofisticado. Simulación de navegación con apariencia 3D del sistema solar. Aspectos Negativos: Funciones limitadas en la versión gratuita.

A continuación se muestra un resumen de los aspectos más importantes que se detectaron en el análisis de cada aplicación utilizando la clasificación anteriormente mencionada.

2.1.1 Revisión de apps tipo Planetario

Night Sky Tools – Astronomy [26] Aspectos Positivos: Muy útil para apoyar en observación con telescopio. Estéticamente bien diseñada. Exploración de contenido muy intuitiva. Muchas herramientas, calendarios, catálogos y simulaciones. Aspectos Negativos: Contiene comerciales. Se ralentiza ocasionalmente.

Dentro de ésta clasificación se colocaron casi todas las aplicaciones que contenían un planetario. Las características que todos presentan son una simulación de lo que está en el cielo visible según la localización y prácticamente todas hacen uso del GPS para detectar la ubicación del usuario. Algunas apps contienen información básica de los objetos del cielo nocturno, pero existen algunas otras destacables como Cosmos Navigator [12], Mapa Estelar [19] o Night Sky Tools – Astronomy [26], que son aplicaciones con un amplio contenido y funciones sobresalientes con respecto al resto.

SkEye | Astronomy [34] Aspectos Positivos: Diseño de apariencia agradable. Catálogos y búsqueda de objetos específicos. Interfaz amigable. Opciones de configuración visual. Aspectos Negativos: Sin atractivos sobresalientes.

A continuación se puede observar algunas de los aspectos destacables de las aplicaciones revisadas.

Sky Map [35] Aspectos Positivos: Rápido y preciso. Fluida reacción al movimiento de las manos. Diseño minimalista agradable. Aspectos Negativos: Sin atractivos sobresalientes.

Astro Tools [5] Aspectos Positivos: Amplia base de datos. Contenido muy útil para observación con telescopio. Objetos clasificados que al seleccionar alguno lleva a su ubicación en el mapa. Varias opciones de configuración visual. Aspectos Negativos: Aspecto de botones y menús descuidado. Poco resalte entre colores que resta impacto visual a la aplicación y esfuerza la vista de usuario.

SkyORB [36] Aspectos Positivos: Instrucciones de uso. Calendario y algunos datos. Simulador del sistema solar. Control de avance del tiempo. Varios puntos de observación. Aspectos Negativos: Anuncios insistentes para comprar la versión Premium. Funciones limitadas en la versión gratuita. Manejo poco intuitivo.

Astroviewer 3D [9] Aspectos Positivos: Opciones de configuración visual. Aspectos Negativos: Contiene comerciales. Se estanca ocasionalmente. Poco contenido. Sin atractivos sobresalientes.

The Night Sky Lite [41] Aspectos Positivos: Ocupa poca memoria. Rápida y sencillo. Incluye sonido de fondo. Aspectos Negativos: Se estanca ocasionalmente y/o desaparece la imagen. Botones muy pequeños (diseñado para pantalla más grande). Contiene comerciales.

Comet Book [11] Aspectos Positivos: Permite ubicar cuando está a la vista algún cometa. Aspectos Negativos: Se estanca frecuentemente. Pocas opciones de configuración.

2.1.2 Revisión de apps tipo Enciclopedia

Cosmos Navigator [12] Aspectos Positivos: Catálogos muy completos, amplios e intuitivos. Rápida. Planetario visualmente atractivo. Varias opciones de configuración visual. Manipulación de

Dentro de ésta clasificación se incluyeron aplicaciones que tenían carácter informativo-educativo. Así apps de catálogos, 99

Tlamati, Número Especial 3 CICOM 2014 información y noticias en forma de artículos y parecidos en relación a la astronomía fueron incluidos aquí.

Obtención de localización en tiempo real. Función de memorizar objetos favoritos. Aspectos Negativos: Sólo proporciona datos. La interfaz gráfica no tiene rasgos atractivos.

Algunas otras aplicaciones hibridas como es el caso de Cosmos Navigator [12], fue incluido en el tipo Planetario, ya que esa es su principal función. También en el caso de Pocket Planets Lite [30] se consideró que sus principales funciones están más relacionadas con la clasificación de Simulador.

AstroPhysCalc [8] Aspectos Positivos: Ocupa poca memoria. Aspectos Negativos: Se detiene inesperadamente. funciones.

Asteroid Tracker [3] Aspectos Positivos: Clasificación por pestañas. Títulos intuitivos. Apariencia agradable. Aspectos Negativos: Poca información y contenido.

Pocas

FOViewer Deluxe Free [14] Aspectos Positivos: Para observaciones con telescopio. Catálogos de objetos. Algunos modelos de telescopios y objetivos. Imagen referencia de apariencia aproximada de objeto y ubicación. Opción de agregar dispositivos. Diseño de apariencia agradable. Aspectos Negativos: Contiene comerciales. Funciones limitadas en la versión gratuita.

Astro [4] Aspectos Negativos: La aplicación no abre en el dispositivo de prueba y no pudo ser revisada. Astronomía Espacio - ErgoSky [6] Aspectos Positivos: Amplia galería de imágenes e información. Editor de imágenes. Aspectos Negativos: Carga lenta de la app y funciones. Pocas opciones de configuración. Menús pixelados. Contiene comerciales. Funciones limitadas en la versión gratuita.

ISS Detector [16] Aspectos Positivos: Se un calendario con horas, días y posición para ubicación de la estación internacional. Contiene alarmas de aviso cuando está a punto de pasar. Aspectos Negativos: Contiene comerciales. Funciones limitadas en la versión gratuita.

Catálogo Messier - Astronomía [10] Aspectos Positivos: Vista para noche o día. Apariencia agradable. Letras, iconos y menús cuidados. Catálogo de Constelaciones. Aspectos Negativos: No tiene función de zoom a las imágenes que ofrece.

Planetarium [27] Aspectos Positivos: Determina la ubicación de objetos del sistema solar. Cuenta con un calendario de eventos astronómicos. Notificaciones de eventos astronómicos. Aspectos Negativos: Manejo poco intuitivo. Apariencia rudimentaria. Contiene comerciales.

Messier Catalog - Astronomical [20] Aspectos Positivos: Diseño minimalista agradable. Únicamente contiene el catálogo, algunos datos, descripciones, una foto y un mapa de ubicación en cada elemento. Aspectos Negativos: Reacción un poco lenta.

PlanetDroid [28] Aspectos Positivos: Usa la cámara trasera y a través de líneas guía sobre la pantalla se pueda apuntar directamente a objetos del sistema solar. Permite agregar objetos con respectivas coordenadas. Aspectos Negativos: Detalles de interfaz de usuario descuidados.

Meteor Shower Calendar [21] Aspectos Positivos: Varios catálogos. Planetario de rápida reacción. Calendarización de sucesos astronómicos. Obtención de información de condiciones climáticas (por internet). Notificaciones de eventos astronómicos. Aspectos Negativos: Contiene comerciales. Requiere internet para varias funciones. El menú de entrada visualmente no uniforme con el resto de la aplicación. Manejo poco intuitivo. Funciones limitadas en la versión gratuita.

Satellite AR [31] Aspectos Positivos: Ubica los satélites a la vista. Permite buscar por alguno en específico. Usa la cámara con líneas guía en la pantalla para ayudar a localizar satélites a la vista. Aspectos Negativos: Interfaz de usuario poco cuidada. Scheiner Calculator [32] Aspectos Positivos: Calculadora sencilla para apoyo observaciones. Aspectos Negativos: Aspecto visual muy rudimentario.

NASA App [25] Aspectos Positivos: Ofrece artículos de noticias e historia de la NASA. Enciclopedia digital. Aspectos Negativos: Requiere internet para varias funciones.

en

StarLog Free [40] Aspectos Positivos: Tabla de notas para escribir detalles de sesiones de observación. Herramientas diseñadas para este fin. Aspectos Negativos: Se estanca ocasionalmente. Contiene comerciales.

2.1.3 Revisión de apps tipo Herramientas para Observación Astronómica Varias de las aplicaciones tipo Planetario tienen funciones que incumben a esta clasificación. Ejemplos de ello son Astro Tools [5], Cosmos Navigator [12] y Night Sky Tools – Astronomy [26].

2.1.4 Revisión de apps tipo Simulador Dentro de esta clasificación se encuentran predominantemente simuladores de objetos del Sistema Solar (principalmente del sol y los planetas). Algunos otros se enfocaron en la simulación del Sistema Joviano (Júpiter y las Lunas Galeanas) y el Sistema Saturniano.

Dentro de esta clasificación se colocaron aplicaciones que proporcionan alguna clase de apoyo para la observación: calculadoras, tablas de notas especializadas, determinación de coordenadas, etc. Ya sea para observación a simple vista, con binoculares o telescopio. Algunas son de carácter amateur y otras un poco más profesionales.

Hay apps de varios tipos que contienen simuladores pero que no era su característica principal. Entre las tipo Herramienta está Planetarium [27] por ejemplo; y en el caso de los tipo Planetario están Mapa Estelar [19], SkyORB [36] y Night Sky Tools – Astronomy [26]). También en las tipo Juego hay 2 aplicaciones

Astronomy - WhereIsIt [7] Aspectos Positivos: Ocupa poca memoria. Útil en observaciones con telescopio o binoculares. Amplio catálogo de objetos. 100

Tlamati, Número Especial 3 CICOM 2014 que pudieron quedar en ésta clasificación (Dravidy [13] y Motion Planet [24]), pero la manipulación de estas apps generaba una experiencia más parecida a el uso de un juego.

Dravidy [13] Aspectos Positivos: Entretenida. Ofrece agregar varias opciones de partículas a la visualización. Configuraciones y apreciación de efectos entre las partículas. Aspectos Negativos: Letras y botones muy pequeños (diseñado para pantalla más grande).

Gratis Astro Clock LWP [15] Aspectos Positivos: Diseño minimalista atractivo. Vista superior aproximada de la ubicación de los planetas interiores y la del usuario en tiempo real. Incrusta un reloj de manecillas al diseño. Aspectos Negativos: La versión con todo el sistema solar requiere un importe económico. Sólo es un wallpaper animado.

Just Chaos [18] Aspectos Positivos: Muestra la conservación del movimiento de partículas en un espacio cerrado. Aspectos Negativos: Única funcionalidad.

Jupiter Simulator [17] Aspectos Positivos: Aplicación llamativa visualmente. Simula orbitas y rotaciones del sistema joviano. Datos de ubicaciones en tiempo real. Control de avance del tiempo. Aspectos Negativos: Da pocos datos útiles.

Motion Planet [24] Aspectos Positivos: Simula el sistema solar. Permite crear planetas arbitrariamente y observar los efectos sobre el sistema. Configuración de zoom. Control de avance del tiempo. Aspectos Negativos: La función “reset” se estanca ocasionalmente. Contiene comerciales.

Moons of Jupiter [22] Aspectos Positivos: Ocupa poca memoria. Muestra la posición de los satélites de júpiter de canto. Visualiza eventos próximos de estos. Control de avance del tiempo. Aspectos Negativos: Gráficos pobres. Sin atractivos importantes. Contiene comerciales. Pocas funciones.

Shooting Stars [33] Aspectos Positivos: Juego que permite observar lo que es poner objetos en órbita. Interfaz agradable. Entretenido, inclusive adictivo. Aspectos Negativos: Podría incluir más niveles de dificultad.

Moons of Saturn [23] Aspectos Positivos: Ocupa poca memoria. Muestra la posición de los satélites de júpiter de canto. Control de avance del tiempo. Configuración de zoom. Aspectos Negativos: Gráficos pobres. Sin atractivos importantes. Contiene comerciales. Pocas funciones.

Star Expedition [39] Aspectos Negativos: La aplicación no abre en el dispositivo de prueba y no pudo ser revisada.

3. RESULTADOS Del total de aplicaciones seleccionadas se sacó una estadística de la proporción de aplicaciones con respecto a la clasificación general que se realizó, en la cual se puede apreciar (ver Figura 2) que las apps en las que los desarrolladores de software han trabajado más son de tipo Planetario y Herramientas.

Planetoid: Solar Planet Orrery [29] Aspectos Positivos: Simulador de movimiento de planetas en el sistema solar. Control de avance del tiempo. Entretenida. Configuración de zoom. Configuración de punto de observación. Aspectos Negativos: Pocas funciones. Pocket Planets Lite [30] Aspectos Positivos: Simulador de apariencia 3D del sistema solar. Efectos especiales y gráficos muy buenos. Navegación libre por el sistema solar. Vista de los planetas en su actual posición. Aspectos Negativos: Contiene comerciales. Planetoides y la mayoría de lunas no son accesibles en la versión gratuita. Información enciclopédica limitadas en la versión gratuita. Solar System Scope [37] Aspectos Positivos: Simulador de movimiento de planetas, cometas y demás objetos del sistema solar. Control de avance del tiempo. Fluido visualmente. Es entretenido. Configuración de zoom. Configuración de punto de observación. Varias funciones de configuración y visualización. Aspectos Negativos: Contiene comerciales. Solar System Simulator Lite [38] Aspectos Positivos: Simulador con varias vistas interesantes. Bueno diseño. Aspectos Negativos: Menús poco llamativos. No impresiona a primera vista.

Figura 2. Proporción en relación a clasificación de las apps de la muestra.

Los juegos tienen un notorio enfoque a experimentar con los movimientos e interacción entre cuerpos (2 de ellas a la conservación del movimiento de partículas en un espacio cerrado). Las otras apps están enfocadas a dar una mejor idea de cómo funciona la interacción de cuerpos celestes.

De acuerdo con los resultados arrojados por el análisis basados en los datos de la Tabla 2 y en las características destacadas que coincidieron en la revisión de las apps de la muestra se encontró que la popularidad de las aplicaciones es mayor en las que tienen funciones relacionadas con especificar la ubicación en tiempoespacio de los planetas, asteroides, lluvias de estrellas, satélites artificiales y la Estación Espacial Internacional.

A continuación se presenta una descripción de lo más destacable de cada app.

Por otro lado la interfaz de usuario no pareció importar mucho en cuanto al aspecto estético, sólo aspectos como la combinación de

2.1.5 Revisión de apps tipo Juego

101

Tlamati, Número Especial 3 CICOM 2014 colores pareció tener un efecto atractivo en algunas aplicaciones, pero en general lo importante en la aplicación mostro ser el manejo intuitivo y los resultados de búsquedas de objetos o bien las funcionalidades fueran satisfactorias.

[7] https://play.google.com/store/apps/details?id=com.bt.whereis it, fecha de consulta 3 de mayo del 2014. [8] https://play.google.com/store/apps/details?id=org.astrophysc alc, fecha de consulta 1 de mayo del 2014.

Una parte importante de lo observado es que la mayoría de las aplicaciones que han sido desarrolladas en éste campo fueron escritas en el idioma inglés, lo que margina a un gran porcentaje de la población que no domina ese idioma y por tanto no sirve si se desea que los contenidos, en éste caso, sean de divulgación científica en Latinoamérica.

[9] https://play.google.com/store/apps/details?id=ru.astrod, fecha de consulta 2 de mayo del 2014. [10] https://play.google.com/store/apps/details?id=com.domobile. catalogomessier, fecha de consulta 30 de abril del 2014. [11] https://play.google.com/store/apps/details?id=jp.co.vixen.co metbook, fecha de consulta 1 de mayo del 2014.

4. DISCUSIÓN

[12] https://play.google.com/store/apps/details?id=com.celestron. cosmos_navigator, fecha de consulta 2 de mayo del 2014.

La probable causa de mayor popularidad de las aplicaciones tiende a estar relacionada con mostrar objetos cercanos o visibles a simple vista y por otro lado (en el caso de los asteroides y cometas) con una preocupación en la posibilidad de un choque con la Tierra.

[13] https://play.google.com/store/apps/details?id=com.gmail.djor dac.Dravidy, fecha de consulta 2 de mayo del 2014. [14] https://play.google.com/store/apps/details?id=JVC.FOViewe rDX, fecha de consulta 1 de mayo del 2014.

También, en cuanto a las interfaces de usuario, mostraron más popularidad las aplicaciones intuitivas, y además las combinaciones de colores menos agresivos a la vista, lo que parece concordar con las ya conocidas preferencias y necesidades que las personas suelen mostrar hacia el manejo de herramientas o aplicaciones [42].

[15] https://play.google.com/store/apps/details?id=kuba.livewall.a stroclock, fecha de consulta 2 de mayo del 2014. [16] https://play.google.com/store/apps/details?id=com.runar.issd etector, fecha de consulta 30 de abril del 2014. [17] https://play.google.com/store/apps/details?id=astroapps.simu lators.jovemoons, fecha de consulta 2 de mayo del 2014.

En cuanto al idioma de las aplicaciones resultaría importante dar fomento al desarrollo de aplicaciones de astronomía en español, ya que esto daría la posibilidad de acercar a la astronomía por un medio en auge a la población hispanohablante. Por otro lado, también fomentaría la desmonopolización de la oferta del software en esta área que la tienen predominantemente trabajada los desarrolladores angloparlantes.

[18] https://play.google.com/store/apps/details?id=nl.nocturnesoft ware.JustChaosFree, fecha de consulta 1 de mayo del 2014. [19] https://play.google.com/store/apps/details?id=com.escapistga mes.starchart, fecha de consulta 2 de mayo del 2014. [20] https://play.google.com/store/apps/details?id=com.domobile. messiercatalog, fecha de consulta 2 de mayo del 2014.

5. CONCLUSIONES

[21] https://play.google.com/store/apps/details?id=com.ccwilcox. meteorshower, fecha de consulta 3 de mayo del 2014.

De este estudio se puede afirmar que el desarrollar una aplicación móvil para dispositivos con Android puede llegar a ser un buen medio de difusión de la ciencia, y en éste caso particular, de la astronomía. El desarrollo de una nueva app puede enfocarse (basado en los resultados de este trabajo) a la obtención de datos de los objetos del espacio que mostraron ser de mayor interés (lunas, asteroides y cometas) pero que no se han desarrollado. Específicamente hacen falta aplicaciones sobre las posiciones de lunas, asteroides y cometas, y posiblemente de requerir simulaciones de algunos ellos. Así pues, una aplicación que incluyese contenidos variados en alusión a los objetos mencionados resultaría atractivo y cumpliría con la intención final de éste estudio por el mismo motivo.

[22] https://play.google.com/store/apps/details?id=pl.bizcalc.jupit ergalileanmoons, fecha de consulta 3 de mayo del 2014. [23] https://play.google.com/store/apps/details?id=pl.bizcalc.satur nmoons, fecha de consulta 4 de mayo del 2014. [24] https://play.google.com/store/apps/details?id=irealitysoft.and roid.motionplanet, fecha de consulta 4 de mayo del 2014. [25] https://play.google.com/store/apps/details?id=gov.nasa, fecha de consulta 3 de mayo del 2014. [26] https://play.google.com/store/apps/details?id=com.smeunier. nightskytools, fecha de consulta 3 de mayo del 2014. [27] https://play.google.com/store/apps/details?id=com.andscaloi d.planetarium, fecha de consulta 2 de mayo del 2014.

6. REFERENCIAS [1] http://www.idc.com/getdoc.jsp?containerId=prUS24257413, fecha de consulta 9 de mayo del 2014. [2] http://www.motorola.com/us/moto-g-pdp-1/Moto-G/moto-gpdp.html, fecha de consulta 28 de abril del 2014.

[28] https://play.google.com/store/apps/details?id=com.planetdroi d, fecha de consulta 1 de mayo del 2014. [29] https://play.google.com/store/apps/details?id=com.codepraxi s.orrery, fecha de consulta 2 de mayo del 2014.

[3] https://play.google.com/store/apps/details?id=com.vitruviuss oftware.bunifish.asteroidtracker, fecha de consulta 1 de mayo del 2014.

[30] https://play.google.com/store/apps/details?id=at.sfk.android. pocket.planets.lite, fecha de consulta 2 de mayo del 2014.

[4] https://play.google.com/store/apps/details?id=com.speedyma rks.android.astro, fecha de consulta 1 de mayo del 2014.

[31] https://play.google.com/store/apps/details?id=com.agi.androi d.augmentedreality, fecha de consulta 1 de mayo del 2014.

[5] https://play.google.com/store/apps/details?id=com.rafdev.astr otoolsalpha1, fecha de consulta 3 de mayo del 2014.

[32] https://play.google.com/store/apps/details?id=com.strickling. scheiner, fecha de consulta 1 de mayo del 2014.

[6] https://play.google.com/store/apps/details?id=com.ergsap.erg osky, fecha de consulta 3 de mayo del 2014.

[33] https://play.google.com/store/apps/details?id=com.venimis.s hootingstars, fecha de consulta 1 de mayo del 2014. 102

Tlamati, Número Especial 3 CICOM 2014 [34] https://play.google.com/store/apps/details?id=com.lavadip.sk eye, fecha de consulta 3 de mayo del 2014.

[39] https://play.google.com/store/apps/details?id=com.HeheStudi o.StarExp, fecha de consulta 4 de mayo del 2014.

[35] https://play.google.com/store/apps/details?id=com.google.an droid.stardroid, fecha de consulta 1 de mayo del 2014.

[40] https://play.google.com/store/apps/details?id=jvc.starlog_fre e, fecha de consulta 3 de mayo del 2014.

[36] https://play.google.com/store/apps/details?id=com.realtechvr. skyorb, fecha de consulta 4 de mayo del 2014.

[41] https://play.google.com/store/apps/details?id=com.icandiapp s.thenightskylite, fecha de consulta 1 de mayo del 2014.

[37] https://play.google.com/store/apps/details?id=air.com.eu.ino ve.sss2, fecha de consulta 1 de mayo del 2014.

[42] G. Fernández G., Percepción y Diseño, compilación, Licenciatura en Diseño Gráfico, Universidad de Londres. http://www.uvirtual.edu.co/docudiseo/Dise%C3%B1o%20Gr afico/M-P/percepcion_dise%C3%B1o.pdf, fecha de consulta 21 de mayo del 2014.

[38] https://play.google.com/store/apps/details?id=com.livingston ewebservices.androidsolarsystemlite, fecha de consulta 1 de mayo del 2014.

103

Tlamati, Número Especial 3 CICOM 2014

Diseño del Sistema de Circuito Cerrado de Televisión para el Monitoreo de Buses Articulados Transmilenio Usando una Red WiMAX Yuri Vanessa Nieto

Héctor Iván Blanco

Universidad Distrital Francisco José de Caldas Bogotá, Colombia

Universidad Distrital Francisco José de Caldas Bogotá, Colombia.

[emailprotected]

[emailprotected]

generalmente utilizado como una tecnología de video vigilancia que permite monitorear diversos ambientes y actividades; se caracteriza esencialmente por que todos sus componentes están entrelazados de forma física y/o inalámbrica[2], esperando así, que un número limitado de personas tenga acceso al video de las cámaras.

RESUMEN El sistema de Circuito Cerrado de Televisión (CCTV) provee una herramienta eficaz para incrementar la seguridad al interior de los buses del sistema público de transporte de la ciudad de Bogotá, Transmilenio; debido a que provee la accesibilidad para monitorear los buses articulados a través de una arquitectura de video vigilancia combinada entre análoga y red; utilizando para ello el despliegue de una Red WiMax dedicada para este servicio.

Transmilenio (TM) es la empresa de transporte masivo más grande de Colombia, creada con el fin de transformar el transporte público en la ciudad de Bogotá[3]. La capital de la República de Colombia cuenta con aproximadamente 8 millones de habitantes[4] y se estima que más del 25% de los residentes de la ciudad utilizan el servicio de Transmilenio como sistema de transporte[5]. Teniendo en cuenta que actualmente Transmilenio solo cuenta con sistema de CCTV dentro de las estaciones; esta propuesta describe una solución bondadosa de monitoreo al interior de los buses articulados del Sistema TM, a través de la instalación de cámaras de seguridad y utilizando una red WiMAX como medio de transmisión de datos hacia una central de monitoreo, que se llevará a cabo en tiempo real para promover el confort y la seguridad de sus usuarios.

Esta propuesta denominada TmTV, se basa en la arquitectura cliente - servidor, pilar de los sistemas distribuidos, dado que todos los equipos y dispositivos del sistema operan y se despliegan de manera transparente en la estación Central de Monitoreo.

Palabras Clave CCTV, DVR, Fibra Óptica, WMAN, Red WiMAX.

2. DISEÑO DEL CIRCUITO CERRADO DE TELEVISIÓN PARA TRANSMILENIO

1. INTRODUCCIÓN Un CCTV (circuito cerrado de televisión), es un medio de enviar imágenes desde un lugar a otro en tiempo real[1]. Es

El diseño de esta propuesta está basado en la arquitectura ClienteServidor, como un modelo de aplicación distribuida en el que el video en tiempo en tiempo real se transmite a través de una Red WiMAX dedicada para esta operación. Las antenas de la red estarán conectadas utilizando la Fibra Óptica disponible en todas las estaciones o paradas de buses del Sistema TM y como medio de redundancia se interconectaran entre ellas mediante la red WiMAX para garantizar la operación del servicio; finalmente este video se entrega a una Central de Monitoreo de Transmilenio.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

2.1 Especificaciones técnicas

4to. Congreso Internacional de Computación CICOM 2014, Octubre 24, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

Los sistemas de video vigilancia se pueden dividir según su arquitectura en dos tipos: Arquitectura análoga y Arquitectura IP[6]. La Arquitectura Análoga: Es una tecnología de video 104

Tlamati, Número Especial 3 CICOM 2014 vigilancia que utiliza equipos analógicos; por lo que el registro, conservación y reproducción de señales correspondientes se hace al espectro de esta videofrecuencia[7] y se propone para la grabación de video al interior de los buses. En la Arquitectura en Red todos los equipos están conectados por red[8] lo cual se utilizara para la transmisión de los datos. En la propuesta de TmTV se combina estas arquitecturas, por lo que para su funcionamiento se requieren los siguientes equipos y dispositivos:

2.1.1 Cámaras Las cámaras ocultas de vigilancia estarán conectadas directamente el DVR mediante una conexión BNC y suministro de energía. Estarán instaladas dentro de los articulados de Transmilenio de manera oculta para evitar su acceso al público. Dependiendo del tipo de bus se instalarán cuatro cámaras para cada bus articulado y seis cámaras para cada bus bi-articulado como se muestra en la figura 1. Las características requeridas de estos equipos son: • • • • • •

Figura 2. Resolución de video estándar [9].

Lente de 3,5 mm con ángulo de visión de 70°. Sensor de imagen ” Sony Super HAD CCD II. Sistema de señal: PAL/NTSC Señal de vídeo de salida 1Vp-p (75 /BNC) 700 TVL de alta resolución. 75db Wide Dinamic Range, para que los objetos que se encuentran ubicados tras fondos con mucha luz sean fácilmente descriptibles. Menú OSD.

Seguidamente, se calcula el espacio de almacenamiento requerido para cada canal de video. mi=q1×hi×Di

(2)

Donde hi es el número de horas al día de grabación Di la cantidad de día a grabar. El espacio mínimo requerido para el almacenamiento de video de todas las cámaras, se realiza utilizando la fórmula: c

qr =

(3)

mi i =0

Donde c es el número total de canales del DVR.

Figura 1. Diseño de instalación de cámaras al interior de buses articulados.

De acuerdo a estas fórmulas indicadas por el fabricante y según la calidad de grabación de DCIF a 12 fps y calidad de video optima, se obtiene un Bit Rata de 1.25Mbps aproximadamente de 2.17 TB por 30 días de grabación de 24 horas continuas por cada DVR es decir por cada articulado.

2.1.2 DVR Este dispositivo es un concentrador de video que se encarga de la recepción de la señal de 4 ó 6 cámaras según su modelo. La transmisión de video lleva a cabo por stream y almacena hasta 2TB. El DVR estará instalado al interior de cada bus alimentándose del sistema eléctrico del mismo; conectado directamente al Router WiMAX mediante una conexión Ethernet. En este dispositivo se modula la resolución de grabación que puede ser: QCIF (Full frame), CIF (Full frame), 2CIF (15 fps), DCIF (12 fps), 4CIF (6fps); como se muestra en la figura 2.

2.1.3 Router WiMAX Cada bus articulado contará con un router WiMAX que recibirá la señal de video proveniente del DVR para su posterior envió mediante la red WiMAX del sistema. El router WiMAX basado en el estándar IEEE 802.16 es impulsado por la interfaz de radio basada en FDMA, lo última en tecnología inalámbrica que aumenta el ancho de banda para el acceso inalámbrico (BWA). Este emplea la tecnología MIMO (múltiple entrada múltiple salida) que aumenta la capacidad del sistema, la cobertura y la tasa de rendimiento. La conexión del router WiMAX al DVR se realiza mediante Ethernet.

Dentro del estándar de compresión y transmisión de video H.264, se seleccionan los parámetros de grabación de video para mejorar el rendimiento del ancho de banda, entre estos se encuentra: Bit Rata, Frame Rata, Video Quality y Data Rata. El cálculo del espacio de almacenamiento requerido en disco en MB se lleva a cabo utilizando las fórmulas ofrecidas por el fabricante del dispositivo[10], entonces: qi=di÷8×3600×1024

2.1.4 Estaciones Base WiMAX Las antenas reciben la señal transmitida por el router WiMAX y la envían a la central de monitoreo. La banda de operación del sistema debe ser superior a 5 GHz, la cual no requiere licenciamiento de operación y funcionara como una red privada para la prestación de este servicio. Cada estación base deberá contar con un sistema que garantice el suministro de energía durante las 24 horas.

(1)

Donde di es el bit rate dado en kbit/s

Las estaciones base deben características: • Certificación WiMAX. 105

cumplir

con

las

siguientes

Tlamati, Número Especial 3 CICOM 2014 • • • •

El modelo OSI (Open System Interconnections), es un marco de referencia para la definición de arquitecturas en la interconexión de los sistemas de comunicaciones. El modelo está dividido en siete capas: Física, Enlace, Red, Transporte, Sesión, Presentación y Aplicación[11]. Cada capa cumple una función específica para la comunicación del sistema y cuenta con sus propios protocolos la conexión del sistema WiMAx enmarcada en el modelo OSI se representa en la figura 4.

Frecuencia de operación de 4900 – 5350 MHz y 4900 – 5350 MHz. Tecnología de duplexacion: TTD. Modulación OFDMA. Soporte extendido de rango: 39Km

2.1.5 VideoWall Es la conexión de 27 monitores LCD de 42” de alto rendimiento en donde se visualiza en tiempo real el video de las cámaras instaladas en los buses Transmilenio. Debido a que el monitoreo se llevará a cabo de manera centralizada y el cual se comporta como el cliente o usuario final del sistema TmTV. Allí se recibirá el video de más de 7000 cámaras instaladas en los más de 1400 buses articulados del Sistema TM.

Modelo OSI WIMAX Capa Modelo Protocolo OSI Aplicación Presentación Sesión Transporte Red Control de enlace lógico (LLC) Enlace Control de acceso al medio (MAC) Física OFDMA, OFDM, SCa, SC

2.2 Arquitectura del sistema de CCTV La propuesta se basa en el despliegue de una red dedicada de comunicación WiMAX para la transmisión de video que cubra todas las rutas por donde circula el sistema de transporte masivo Transmilenio. En la figura 3 se muestra la arquitectura general del sistema de monitoreo CCTV teniendo en cuenta la trasmisión de datos y equipos expuestos en el apartado anterior.

Figura 4. Modelo OSI del Sistema WIMAX

2.2.1 Capa física. La capa física se encarga de las conexiones físicas hacia los distintos dispositivos conectados en la red de trabajo, específicamente al medio físico de transmisión. Para este caso particular se una la Red de área metropolitana inalámbrica con una sola portadora. (WMAN- SC, Wireless Mtropolitan Area Network. Simple Carrier)[12] que cuenta con las siguientes características: • • • Figura 3. Arquitectura principal del sistema de video vigilancia TmTV.

Opera en las bandas de 10-66 MHz. Soporta TDD (Time Division Duplex) y FDD (Frecuency Division Duplex). FDD soporta transmisión Full Duplex.

2.2.2 Capa de red.

Dado que la trasmisión de video y el monitoreo simultaneo de más de 7000 cámaras requiere un ancho de banda extenso asi como un gran equipo de trabajo, la propuesta incluye la instalación de un botón de pánico, para que en caso de emergencias se envié una alerta a la Central de Monitoreo de Transmilenio donde se podrá verificar en tiempo real el video del bus articulado, optimizando el consumo en el ancho de banda del canal de comunicación WiMAX. Del mismo modo el operador de la central, decide que buses monitorear; desde allí se puede descargar el video contenido en los DVR de cada articulado. Eventualmente cuando el DVR no pueda comunicarse con la central de monitoreo, el sistema continua grabando de forma autónoma y reescribiendo sobre los archivos de video más antiguos, de esta manera se evita el cambio de disco duro de forma constante. Cuando el DVR recobre conexión con la central de monitoreo, el operador está en la capacidad de recuperar cualquier fragmento de video guardado durante la perdida de conexión con el articulado.

La capa de red se encarga de proporcionar conectividad entre los distintos dispositivos, seleccionando las rutas de conexión entre los dispositivos conectados en redes geográficamente distintas. Es la capa de control de acceso al medio (MAC) y multiplexaje del tráfico por el medio físico, que en este caso es inalámbrico; entre sus funciones se encuentran: •

• • •

106

Segmentar o concatenar las unidades de servicio (SDU Services Data unist) que recibe de las capas superiores en unidades de datos (PDU – Protocol Data Units). Seleccionar el perfir de ráfaga asi como el nivel de potencia que se utiliza para la transmisión de MAC PDUs. Proporcionar seguridad a la administración de la clave. Proporcionar apoyo a las capas superiores para la administración de movilidad.

Tlamati, Número Especial 3 CICOM 2014

2.3 Cobertura de las estaciones base WiMAX

radio de la antena conectada a la estación base así como la ruta de la troncal por donde circulan los articulados de Transmilenio.

Con el fin evaluar la cobertura de las estaciones base WiMAX, se deben tener en cuenta las características técnicas de las antenas de cada base. En el diseño de TmTV se tendrán las siguientes antenas:

La figura 7 se muestra la cobertura de la antena omnidireccional para la troncal de la calle 80, con cobertura adicional para el troncal de suba, cubriendo así una distancia de 7.8 Km.

2.3.1 Antenas Omnidireccionales. Las antenas omnidireccionales son aquellas que radian potencia uniforme en todas las direcciones es decir 360°.

Figura 5. Antena Omnidireccional [13]. Figura 7: Mapa de Calor Troncal Calle 80.

2.3.2 Antenas sectorizadas. Son la mezcla de las antenas direccionales y las omnidireccionales. Las antenas sectoriales emiten un haz más amplio que una direccional pero no tan amplio como una omnidireccional. De igual modo, su alcance es mayor que una omnidireccional y menor que una direccional. Para tener una cobertura de 360º (como una antena omnidireccional) y un largo alcance (como una antena direccional) deberemos instalar, tres antenas sectoriales de 120º ó 4 antenas sectoriales de 80º. Este sistema de 360º con sectoriales se denomina “Array”. Las antenas sectoriales suelen ser más costosas que las antenas direccionales u omnidireccionales

En la figura 8, se observa la cobertura de la estación base para el troncal de suba que cubre una distancia de 9.6 Km y se utilizará una estación base la cual estará ubicada a 2,8 km del portal de suba.

Figura 6. Antena Sectorial [14].

2.3.3 Mapas de calor Troncales de Transmilenio.

Figura 8: Mapa de Calor Troncal Suba.

Para la creación se realizó utilizando Google Earth dado que permite el cálculo de áreas y perímetros de forma acertada y a través de herramientas ofimáticas se esboza el área de cobertura de cada una de las antenas. Cada mapa describe la cobertura en

Para el troncal del norte, la antena omnidireccional cubre una distancia de 10Km como se muestra en la figura 9, y estará ubicada a 4 km del portal Norte. Las estaciones faltantes se 107

Tlamati, Número Especial 3 CICOM 2014 La figura 11 muestra el mapa de calor del troncal de las Américas que cubre una distancia de 14,5 Km a través del uso de dos estaciones base.

conectaran mediante una estación base que está iniciando en la troncal de las caracas y que incluyen en trayecto más largo.

Figura 11: Mapa de Calor Troncal Americas. Para el troncal de la Calle 26 se cubre un total de 9,6 km con la instalación de una antena omnidireccional la cual incluye el portal de El Dorado como se muestra en la figura 12.

Figura 9: Mapa de Calor Troncal Norte.

En el troncal Caracas y Carrera decima se incluyen los portales de: Usme, tunal y 20 de Julio con una cobertura de 26,9 Km y 5 estaciones base como se muestra en la figura 10.

Figura 12: Mapa de Calor Troncal Calle 26. Con el fin de dar cobertura a los 17.3 km del troncal NQS que incluyeran el portal del Sur, se propone la instalación de una estación base como se muestra en la figura 13.

Figura 10: Mapa de Calor Troncal Caracas y Cr 10. Figura 13: Mapa de Calor Troncal NQS. 108

Tlamati, Número Especial 3 CICOM 2014

3. ANÁLISIS DE RIESGOS DE LA PROPUESTA

5. REFERENCIAS BIBLIOGRAFICAS

Con el fin de disminuir y controlar la probabilidad de impacto de eventualidades negativas para el proyecto, se identificaron y evaluaron los riesgos del proyecto, de lo cual se obtiene el mapa de calor de riesgos que se representa en la figura 14.

[1] I. G. González, Técnicas y procesos en las instalaciones singulares en los edificios: instalaciones electrotécnicas. Editorial Paraninfo, 2007, p. 405. [2] A. P. Luna, PCPI. Instalaciones de telecomunicaciones. Editorial Paraninfo, 2012, p. 186. [3] A. Gilbert and M. T. Garcés, Bogotá: progreso, gobernabilidad y pobreza. Universidad del Rosario, 2008, p. 289.

!

[4] “Censos.” [Online]. Available: http://www.dane.gov.co/index.php/poblacion-ydemografia/censos. [Accessed: 23-Apr-2014].

"

#$

[5] “Informes | Transmilenio.” [Online]. Available: http://www.transmilenio.gov.co/es/articulos/informes-0. [Accessed: 21-Apr-2014].

Figura 14. Mapa de calor de riesgos identificados en TmTV Los riesgos A2: Caída parcial en el enlace de comunicaciones del sistema y A3: Pérdida de la fiabilidad en la información transmitida por la red son los de mayor criticidad y probabilidad de ocurrencia. De los cuatro riesgos identificados, A1: Aumento parcial en el presupuesto del proyecto y A4: Pérdida parcial de la información y sobre costos por reposición de equipos y dispositivos son los de menor impacto. Una vez se implemente el proyecto así como los mecanismos de control de riesgos propuestos, estos se mitigaran hasta en un 35% siendo todos totalmente controlables.

[6] N. Cohen and J. Gattuso, CCTV Operational Requirements Manual, no. 28. 2009. [7] “Axis Communications - Diseño de un sistema.” [Online]. Available: http://www.axis.com/es/solutions/system/analog_digital.htm. [Accessed: 23-Apr-2014]. [8] F. J. G. Mata, Videovigilancia: CCTV usando vídeos IP. Editorial Vértice, 2010, p. 266.

4. CONCLUSIONES

[9] S. Rojas-galeano and H. A. Diosa, “The KITE Model for Assessment of Academic Software Products Resumen,” no. I, pp. 1–16, 2014.

El sistema de Circuito Cerrado de Televisión CCTV es una propuesta altamente viable para el monitoreo en tiempo real al interior de los buses del sistema de transporte público Transmilenio. Dado el tamaño de los archivos de video a transmitir y una vez evaluadas las tecnologías disponibles para esta operación, se concluye que la tecnología óptima para llevar a cabo este proceso es el montaje y despliegue de una red propia WiMAX que opere en un ancho de banda superior a los 5GHz con el fin de evitar costos de licenciamiento la cual podrá ser utilizada posteriormente para ofrecer el servicio de internet gratuito a los usuarios del Sistema. Para un óptimo monitoreo se recomienda que la transmisión de video no se realice de manera continua y simultanea para todos los buses articulados, sino teniendo en cuenta la inclusión de un botón de pánico que accionado por el conductor envía una señal de alerta a la Central de Monitoreo para que se lleve a cabo la transmisión de video de ese articulado en particular. Para la implementación se requieren 4 antenas sectoriales y 9 antenas omnidireccionales para un total de 13 estaciones base WiMAX que cubren un total de 87.5 km de cobertura lineales para las troncales de Transmilenio como una red WiMAX dedicada al monitoreo de los buses que propenda por la seguridad de sus usuarios.

[10] DS-8100HMI-B, “Embedded Mobile Net DVR User Manual,” pp. 1–61. [11] J. Í. Griera and J. M. B. Ordinas, Estructura de redes de computadores. Editorial UOC, 2009, p. 336. [12] K. R. Rao, Z. S. Bojkovic, and D. A. Milovanovic, Wireless Multimedia Communications: Convergence, DSP, QoS, and Security, vol. 2008. CRC Press, 2008, p. 344. [13] “Omnidireccional.” [Online]. Available: http://iesramonycajaltocina.es/ciclo/Vocabulario/vocabulario_ t8/html/omnidireccional.html. [Accessed: 09-Jun-2014]. [14] “Antena Sectorial.” [Online]. Available: http://www.taringa.net/posts/taringa/7426697/Equiposrouters-con-mejor-rendimiento-a-2-4ghz.html. [Accessed: 09Jun-2014].

109

Tlamati, Número Especial 3 CICOM 2014

GIS Analysis model to promote tourism through the use of a WEB application Yuri Vanessa Nieto Acevedo Universidad Distrital Francisco José de Caldas Carrera 7 No. 40B – 53 [emailprotected]

As the internet has become increasingly accessible to large populations[1], the tourist in these bordering towns could be positively impacted if the development of the tourist application hangs on the cloud to the public use. GIS is a computer system that allow to gain, store, organize and retrieve spatial information. GIS technology is already widely applied in disciplines such as cartography, geography, geology survey, environmental management, urban planning and becomes essential in all of these professional fields[2].

ABSTRACT The sustainable development of the tourism in the not well known towns needs the support of Web applications and GIS (Geographic Information System) technology. The aim of this paper is to provide a GIS Analysis Model integrated to a Web Application to support the promotion of tourism in small towns through the use of a crowdsourcing strategy. The city of Chía, a small town in Cundinamarca, located near to Bogotá-Colombia was used as a case study to test the research methods.

Keywords

On the market there are widely available software packages ready to use such as ArcGIS, QuantumGis, PostGis, and others that are useful where it comes to achieve the objective of promote tourism by easily and effectively developing and consuming Geoprocessing tools and services to be published on the cloud[3]. This project presents a GIS Model Analysis developed using ESRI tools such as ArcGIS Descktop and Server, and a viewer for Flex for the web application deployment. This paper is organized as follows. Section II describes some related work in tourist promotion through the use of GIS technologies. Section III explains the methods selected for this research. Section IV presents the results of our work and conclusions and future work are presented in Section V.

Geographic Information System (GIS), Tourism, Point of Interest (POI), Web Feature Services (WFS), Tourism web services

INTRODUCTION Tourism is considered as a potential sector to develop economic in a Region. Not well known towns are lagging behind main towns where people easily find Point of Interest (POI) to visit. The tourism in Bogota as the main city in Colombia has rapidly increased in recent years and have numerous of websites that inform and help people to tourist into the city. Nevertheless bordering small towns as it is the case of Chia-Cundinamarca, which has interesting places to be visited, does not use Web Applications that help tourist to inform about their places of interest, how to get there and other functionalities to increase the tourism in the Region.

1. RELATED WORK Applying Geographical Information System (GIS) in tourism system is nothing out of the ordinary. Years of research and effort to implement GIS provides promising approach to a successful tourism GIS system[4]. Shanu [5] proposes an Interactive Multimodal Tourist System with natural multimodal integration by mouse, keyboard and speech using .NET, MySQL, JavaScript and Google Map Engine. Tezuka [6] integrated web search with a Geography Information System. Compared with these research, this work extracts information already available on GIS Web Servers and uses it in a integrated web application for people who is interested in tourism in a specific town.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

The tourism management method developed by Balqies [7]proposes the steps to start a GIS system for tourism, emphasizing in the collection of the spatial data. Nisar [8] addressed a similar topic and describes the effects of Digital

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

110

Tlamati, Número Especial 3 CICOM 2014 Maps in the Tourism’s Industry. However, this research does not solve the problem for small towns where the cartography and digital maps with topology are not available or it is not in an adequate resolution, plus the spatial references of the points of interest have not been obtained; for this reason this project shows where to find maps already in geographic format that can be easily consumed by tourist applications.

the procedures explained bellow. The collected data is from two main types: Spatial and Attribute data[7].

2.1.1 Define Spatial Data The spatial data is related to the space and its position on the surface of the earth[14]. The Major office from Chia provides a street layer of the town in Autocad, which represents a big challenge to the project due to the fact that the data has to be converted in to spatial format, and it requires building a network dataset with street topology and detailed network configurations (layers, turns, etc.) [15] to be used in ArcGis 10.2. Nonetheless to overcome this issue OpenStreetMap (OSM) was considered, since it offers good quality street map from the town, with topology and street configuration that is already available to be used in ArcGis.. This approach is similar to the alternative solution proposed by Marek [16] in his route planning model using OSM.

Several companies provide some geographic information services. Yahoo! Local Maps, Google Maps show search results on a map interface[9]. Tomomichi [10] analyses the quality of data in OpenStreetMap (OSM), which is the geographic information used as the based map for Turichia. The data provided by such providers summarizes the quality needed for geographic information[11][12]: • Lineage • Positional accuracy

2.2.2 Define Attribute Data

• Attribute accuracy

Basic attribute information for tourism is the description of the main town attractions, with information such as the name of the attraction, the hours it is available, the type of attraction, and pictures or other visual appealing information. In the study case this information is limited, taking into account it is a small town that has not explored tourism previously; So, data needs to be gathered in collaboration with the town’s Major Office in a table form with names and addresses; Then, such Point of Interest (POI) situated in mountains or villages are located using OSM by native people from Chia who have lived in the town and know these places for a long time. This POI are categorized in nine groups including as administrative, gastronomic, cultural, recreate, religion, security, health, malls and bars, to allow search by category afterwards.

• Logical consistency • Completeness • Semantic accuracy • Usage, purpose and constrains

2. METHODS According to Yang [13] WebGis Systems have high efficiency, better flexibility and scalability supported by an enterprise architecture.. This architecture consist of a Database layer, a GeoServices layer and a Client layer, as shown in Fig. 1.

2.1.3 Data Pre-Processing In order to Geo-reference the Points of Interest, Google Maps was used to locate the latitude and longitude coordinates of each POI, based in a geographical coordinate system WGS1984[17]. This geographic coordinate system was selected for the case study considering the fact that POI are point data which is not affected by distortions; also, towns are supposed to be small size, so the kind of distortions in distances and areas that are naturally present in geographic coordinate systems caused by angular calculations are not relevant. . This approach was selected taking into consideration the work developed by Ardizzone [18] and List [19] to extract tourist information using Google Maps and WGS1984 geographic coordinate system.

2.1.4 Geo Database development A Geodatabase is a centralized repository that combines all the features of a database system, and adds all the capabilities of a spatial system. It offers information about geographic features allowing spatial analysis, with clear presentation and real interaction with the needed information[20]. The identification number, name, latitude, longitude, description, address, telephone and website was collected; Initially, an Excel table was created with this basic information, and then exported using the ArcMap function AddXY that uses the x,y coordinates to generate a shapefile format . ArcCatalog is employed to set up for the new

Fig. 1. WebGIS System Architecture

2.1 Database layer Once the objectives of the Tourism GISWeb Application are defined, the work starts by collecting all kind of data, followed by

111

Tlamati, Número Especial 3 CICOM 2014 Geo Database: the Data Set that is Point of Interest and the Feature Classes that are the nine categories established above. Next , an Enterprise Geo database is built using ArcToolBox. Roi [20] research constructs a database on ArcGis and describes a methodology to obtain this same objective consuming ArcSDE services[21]. In order to enable the creation of Web Feature Services it is recommended to use a multiuser database that supports spatial data types such as PostGis, MySQL, Oracle, SQL server, among others[22]. For this research we used Microsoft SQL, given since the license for this Database management system was available for this project. Using the query language offered by SQL to Geo reference each POI, a new field was added on the table as a geography data type as follows:

properties file, save the .mxd file to subsequently publish the service. The URL that results from this procedure is later used in ArcGis Viewer for Flex. Similar to the methodology that uses Quian-quian[26] on his research.

Nearest distance: Using select tool, the client can choose the place where he is located, following by near tool to determine the nearest distance POI. Finally with a join filed tool the client can visualize the attributes of this nearest POI. Figure 2 shows this model.

USE [baseturichia] GO UPDATE [dbo].[baseturichia] SET [GEOLUGAR] =

Fig. 2. Model in ArcMap to find the Nearest distance to a POI

geography::STPointFromText ('POINT(' +CAST(LONGITUD AS

VARCHAR(20)) + ' '+CAST(LATITUD AS VARCHAR(20)) + ')', 4269) GO

POI into a ring area: This model is similar to the nearest distance model explained above. Nevertheless, this model include the tool buffer to determine a radio in meters to the client checkpoint where it could be found Points of Interest. The model is shown in Figure 3.

This expression takes the data that are into the fields of latitude and longitude and make them spatial data type in the new field Geolugar taking the SRDE code 4269 which is a ArcGISDynamic MapServiceLayer with a SpatialReference WKID[23]. It is also important to create a default instance of the spatial database with a password in order to avoid issues with the database connection. Fig. 3. Model in ArcMap that finds Points of Interest into a ring area.

2.2 Generating Services Bearing in mind the requirement analysis that is made through UML[24] building Use Case diagram and Class diagram for an application that is expected to promote tourism using GIS technology; are generated two kind of services such as Geoprocessing operations built in ArcMap and servers consumed from ArcGis Online.

Is vital to configure the input and output data as parameters in order to enable clients to pick an exist data.

2.2.3 Servers consumed from ArcGis Online Once all servers are integrated in ArcGis Viewer for Flex, it is possible to consume servers offered by ArcGis Online. In this section are explained just the servers and its functionality. However the web application integration it is being discuss in next section with the results in ArcGis Viewer for Flex.

The client for this kind of web application needs to answer question such as What Point of Interest exist in this town?, Where are them located?, How can I get there?[25] What is the nearest POI to me?, Which are the POI located near to my radio area?, Where is this address?, Can I contribute to this web application adding/editing POI?. In order to answer these questions, are constructed the next services:

2.2.1 Geoprocessing services using ArcMap Using the ArcToolBox are creating models using tools such as select, near, join field, buffer and clip to create the Geoprocessing models:

Network Analysis: This method is based on the graph theory and operational research and is used for modelling geographic method and urban infrastructure network, which is applied to optimum allocation of resources, search of the shortest path and so on[27].

Using the Network analytics module form ArcGis Online as Yang [28] proposes, it is possible to answer the question How can I get there?. Besides, there is another complementary option such as add a barrier, calculate time and distance and show the step by step sequence.

Query and Search: Using ArcMap it is upload the GeoDatabase already created. It is needed to be filled the Map 112

Tlamati, Número Especial 3 CICOM 2014 •

by the deployment of the (out-of-box ) of RIA applications, support for ArcGis Online, ArcGis Server and other server services (GeoRSS, etc) access. Flex has extensive developers libraries which enable developers to build and efficient, powerful and aesthetic rich internet application more easily[31]. Is necessary to configure five tabs or modules such us:

Geocoding: This method finds an associate geographic coordinates from other geographic data such as street addresses or ZIP code[29]. In Turichia the service consumed from ArcGis Online allows to find an address using a single input field, in this case the address. The output point can be visualized on the map. Once the address is entered dashboard with the possible location options it is shown with the aim of the client can choose the one is more accuracy.

2.2.1 Extension In this tab it is imperative either to add a base map or choose one map from the ones available. Due to the fact a digital map form Chia it was not in a good resolution, as it was previously commented, is used Open Street Map as the base map. Besides as operational layer it is arranged the SQL spatial database already connected as an enterprise Geo Database.

Web Feature Services (WFS): Is an ArcGis Online service that enables a client to retrieve geospatial data encode in Geography Markup Language (GML) online through HTTP protocol. It allows for clients and servers of different vendors or systems to share data without having to convert data between proprietaries formats. WFS server is then a feature online resource, providing an interface for data access and manipulation. A request send to WFS server is a query (or transformation operation) for one or more features that can be delivered by a server. When a WFS receives the request, it executes the function by the request and sends back the information to a client. WFS communicates with a client and allow programs written in different languages and on different platforms[22]. The work flow of the WFS process service for is shown in Figure 4.

2.2.2 Widgets The widget module is designed to reduce heavy complex programming work such as map management, map navigation, application configuration and communication between the components. Developers can focus on core business function development. Only in the Flex Viewer application configuration file to add configuration items, you can function into the form of widget rapid deployment into existing Flex Viewer application[13]. Through the URL resulted from the published services on ArcMap, the developer makes a call to this services and uses with the already existed ones on Flex. The widgets that Turichia uses are represented in Table 1. TABLE I TURICHIA WIDGETS

Widget

Fig. 4. Workflow for a WFS development. The key feature of the design WFS service system is to satisfy the user request for different WFS version service[30]. In order to enable de multi-version WFS service is created a spatial database in SQL to ensure clients can access to reliable data without affect the Geo Database previously created on ArcCatalog. This means Turichia has two databases to protect data. Clients add and edit attribute data directly from the SQL database and it is proposed for feature work to create a database administrator role to approve WFS operations and upload and remain changes on the Geo Database.

2.3 Integrate Web Application using ArcGis Viewer for Flex Flex Viewer is the use of ArcGis API for Flex and Flex Framework to design and implementation, which can be removed 113

Functionality

Kind of GIS service

Query: Enables end users to query information from a map service by executing a predefined query.

ArcMap created Model.

Search: Enables end users to search for features in a specific layer using a geographical search tool.

ArcGis Online service

Geocoding/Locator: Enables end users to find a location on the displayed map content in the Viewer.

ArcGis Online service

Network Analysis: Enables end users to find the shortest path from a place.

ArcGis Online service

Nearest Distance: Enables end users to find the nearest distance to a POI.

ArcMap created Model.

POI into a ring area/Buffer: Enables end users to find the Points of Interest contented into a selected ring area.

ArcMap created Model.

Web Feature Service: Enables end user the editing experience clear and intuitive

ArcGis Online service

Tlamati, Número Especial 3 CICOM 2014 Print: Enables end user endusers to print what-you-see iswhat-you-get (WYSIWYG) output, meaning all visible map display is printed.

counts with forty five entities. Once, the end user clicks upon the query widget a new dashboard deploy information about this selected POI.

ArcGis Online service

2.2.3 Composition This module allows the developer to edit and activate dashboard function for the application such as scale bar, coordinate, navigation, URL, general view map, search panel, etc.

2.2.4 Design The design tab enables the developer to edit titles, letter style, color scheme, transparency and allows the uploading of an image for a logotype of the application.

Fig 6. Query Geoprocessing result

2.2.5 Preview This module it is an interactive preview of the application and all the functions previously arranged can be executed. This tab also generates an URL application to his subsequently used[32]. Initially Turichia has an academic example IP http://10.20.161.100/turichia.udistrital.edu.co. Following the infrastructure is installed at the Universidad Distrital server and configure with a public assigned IP; meanwhile this IP address is a reference example.

The Locator application allows the ends user to insert in a text box the address he is looking for. This uses the geocoding services to locate addresses on the map. It also finds relative addresses in order to consent the client choose the one which I more accuracy to the search; the dashboard also shows and score for the geocoding proximity that is not lower of 97 point out 100 for Turichia, as shown in figure 7. It is remarkable to configure the Chia area into the Viewer for Flex preliminary options so the application will not get addresses out of the town area.

3. RESULTS Base on the system architecture above, this model has deployed a Viewer Flex application version as a practical system. The application is shown in Fig 5.

Fig 7. Geocoding service result One of the services that were creating, modeling and publishing for Turichia it’s the POI into a ring area. A new dashboard when the widget is action, allows the end users to indicate the ring area in meters. Once is executed, a grey shadow in scale perform upon the map indicating the ring area and the POI content in this buffer. The information of each POI is shown when the user click on it. The application results on Turichia are shown in figure 8.

Fig 5. Interface application of Turichia The services provided by the application can be seen as follows: When the query application is executed, a left dashboard pops-up to show all the Points of Interest registered on the Geo Database, as shown in figure 6. Initially the 114

Tlamati, Número Especial 3 CICOM 2014

To conclude, it is expected to include soon the role to approve operations arrange in WFS, create route planning suggestions, insert photographs of POI and so on. It is a trend to develop a web GIS based on Viewer Flex due to the fact it is an easy no programing way to create and application were models constructed in ArcMap and services that are already on the cloud can be integrated. As a friendly and helpful application for tourist this creates social benefits for the town. Moreover, it provides a good mechanism to document, conserve and monitor Points of Interest in a town.

Fig 8. Buffer Geoprocessing results.

5. REFERENCES

The Web Feature Service is the only service that works in Turichia with the SQL database as was explained above. This service allows the end user to add and edit POI included in the SQL data base. Nevertheless, this new POI are not available to be search or used by the other services. This is because the connection between the Geodatabase and the SQL database has not being established. Is recommended for feature work to create and administrator role with the aim of approve WFS operations and upload and remain changes on the Geo Database. About this services another options can be explore as uploading photographs or videos of the visited places. The WFS service in Turichia its shown in figure 9.

[1] G. Chang and L. Caneday, “Web-based GIS in tourism information search : Perceptions , tasks , and trip attributes,” Tour. Manag., vol. 32, no. 6, pp. 1435– 1437, 2011. [2] F. Liu, J. Zhang, J. Zhang, Y. Zhu, and D. Chen, “Geostatistical analysis of China inbound tourism spatial distribution structure,” 2010 18th Int. Conf. Geoinformatics, pp. 1–4, Jun. 2010. [3] Z. Peng, L. Mei, W. Fei, and Y. Feil, “The Analisis of Gis Software Engineering Pattern under the Cloud Computing,” no. Iceit, pp. 450–452, 2010. [4] A. A. Emhmed and K. Chellapan, “GIS-based mobile tourism architecture prototype for Libya (A case study),” 2010 Int. Symp. Inf. Technol., pp. 1–3, Jun. 2010. [5] S. Sharma and A. Agrawal, “IMTS- an Interactive Multimodal Tourist-Guide System,” 2010 Int. Conf. Signal Image Process., pp. 233–238, Dec. 2010. [6] T. Tezuka, T. Kurashima, and K. Tanaka, “Toward tighter integration of web search with a geographic information system,” Proc. 15th Int. Conf. World Wide Web - WWW ’06, p. 277, 2006. [7] B. Sadoun and O. Al-Bayari, “A GIS system for tourism management,” 2009 IEEE/ACS Int. Conf. Comput. Syst. Appl., pp. 226–232, 2009.

Fig 7. Web Feature Services result.

[8] K. Nisar and U. T. Petronas, “The Effect of Panoramic View of a Digital Map on User Satisfaction ! a Tourism Industry ’ s Case Study,” pp. 8–11, 2008.

4. CONCLUSIONS In this paper a GIS model analysis is proposed using ArcGis as the main software to develop and deploy a Web Application to promote tourism. Building a GIS system for tourism is a great start in planning for better services in any city. This model analysis was tested in Turichia and works as methodology to create new tourism application that also can include mobile application, desktop application, web browser application, etc., for other towns.

[9] H. K. Yukiko Kawai, “Tour Recommendation System based on web information and GIS,” pp. 990–993, 2009. [10] T. Hayakawa, Y. Imi, and T. Ito, “Analysis of Quality of Data in OpenStreetMap,” 2012 IEEE 14th Int. Conf. Commer. Enterp. Comput., pp. 131–134, Sep. 2012. 115

Tlamati, Número Especial 3 CICOM 2014

[22] S. Chunithipaisan and S. Supavetch, “The Development of Web Processing Service Using the Power of Spatial Database,” 2009 Second Int. Conf. Emerg. Trends Eng. Technol., pp. 832–837, 2009.

[11] M. Haklay, “How good is volunteered geographical information? A comparative study of OpenStreetMap and Ordnance Survey datasets,” 2009. [12] V. Oort, Spatial data quality : from description to application. 2006, p. 140.

[23] S. Zho, J. Liu, B. Wan, and L. Yang, “Seamless Integration of SQL Server Spatial Data on GIS Platform,” no. 2007.

[13] Y. Yang, L. Shao, Y. Zhu, and K. Yang, “A Study on Erhai Lake Environment Information Service Base on ArcGIS and Flex,” no. 2010, 2011.

[24] A. Tucker, Computer Science Handbook, Second Edition. CRC Press, 2004, p. 2752.

[14] S. Wang, “Spatial Data Mining under Smart Earth,” pp. 717–722, 2011.

[25] C. Ryan, “Researching tourist satisfaction: issues, concepts, problems.,” 1995.

[15] Y. Duan and C. Wang, “Topology Modeling of Distribution Network Based on Open-source GIS,” pp. 527–530, 2011.

[26] X. Qian-qian, “A Kind of Geographic Information System Application Based on Flex API of ArcGIS Server,” 2010 3rd Int. Conf. Adv. Comput. Theory Eng. ( ICACTE ), pp. 246–249, 2010.

[16] M. Ma, M. Mazur, and T. Dalecki, “Route Planning with Dynamic Data,” Mil. Commun. Inf. Syst. Conf., p. 5, 2013.

[27] Tang and Guo, Experimental Course for Spatial Analysis of ArcGIS. Beijing., 2006, pp. 212–232.

[17] P. Fell and M. Tanenbaum, “Preliminary Comparisons of the WGS84(EGM 96) Geoid with National Vertical Datums,” vol. 84, no. Egm 96.

[28] Z. Yang, S. Lu, and X. Jin, “Tourism Spatial Association Analysis Based on GIS Technology for the Cities in Anhui of China,” no. 40801054, pp. 0–4, [29]2011.E. Ardizzone, F. Di Miceli, M. La Cascia, and G.

[18] E. Ardizzone, F. Di Miceli, M. La Cascia, and G. Mazzola, “Extracting Touristic Information from Online Image Collections,” 2012 Eighth Int. Conf. Signal Image Technol. Internet Based Syst., pp. 482– 488, Nov. 2012.

Mazzola, “Extracting Touristic Information from Online Image Collections,” 2012 Eighth Int. Conf. Signal Image Technol. Internet Based Syst., pp. 482– 488, Nov. 2012.

[19] C. E. A. List, L. France, and C. Science, “Themeexplorer: Finding and browsing GeoReferenced Images,” pp. 576–583, 2008.

[30] J. He, W. Wang, and Z. Chen, “A dynamic schema matching approach for multi-version web feature service retrieve,” 2009 17th Int. Conf. Geoinformatics, pp. 1–6, Aug. 2009.

[20] D. Rong, X. Dayuan, G. Luo, and S. Faming, “Research on Constructing a Traditional Knowledge Database Information System Based on ArcGIS Server,” 2012 Fifth Int. Conf. Intell. Networks Intell. Syst., pp. 271–274, Nov. 2012.

[31] Z. ZuKuan, Wei. JingRong, “Research of Flexbased WebGIS Application,” vol. 611731, pp. 376– [32]380. M. P. Peterson, Ed., Online Maps with APIs and

[21] H. Lin and B. Huang, “SQL/SDA: a query language for supporting spatial data analysis and its Web-based implementation,” IEEE Trans. Knowl. Data Eng., vol. 13, no. 4, pp. 671–682, 2001.

WebServices. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012.

116

Tlamati, Número Especial 3 CICOM 2014

Software Libre: Alternativa de formación para el emprendimiento Gerardo Alberto Castang Montiel

Sonia Alexandra Pinzón Núñez

Universidad Distrital Bogotá, Colombia.

Universidad Distrital Bogotá, Colombia.

[emailprotected]

[emailprotected]

Carlos Alberto Vanegas Universidad Distrital Bogotá, Colombia.

[emailprotected]

through the use of Free Software.

RESUMEN El presente documento describe los resultados obtenidos a través de una iniciativa de cooperación entre la Alta Consejería Distrital de TIC y la Universidad Distrital Francisco José de Caldas, para capacitar a un grupo de ciudadanos con el objetivo de generar propuestas de emprendimiento por medio del uso de Software Libre.

This proposal is part of public policy that encourages training and use of free software in the city of Bogotá and is the result of participation of the “Proyecto Curricular de Tecnología en Sistematización de Datos e Ingeniería en Telemática”, in the notice that the “Alta Consejería Distrital de TIC” made between different universities to generate an alternative academic training aimed at the public, to include the issues of free software and entrepreneurship.

Esta propuesta hace parte de la política pública que fomenta la capacitación y uso del software libre en la ciudad de Bogotá y es producto de la participación del proyecto curricular de Tecnología en Sistematización de Datos e Ingeniería en Telemática, en la convocatoria que la Alta Consejería Distrital de TIC realizó entre diferentes universidades para generar una alternativa académica de capacitación dirigida a la ciudadanía, que incluyera las temáticas de software libre y emprendimiento.

1. INTRODUCCION Software libre se denomina a todas las aplicaciones o programas que garantizan y proporcionan la posibilidad de ser usadas o ejecutadas para cualquier propósito, copiar, distribuir, cambiar y mejorar el software y publicar estas modificaciones en las mismas condiciones de licenciamiento acordadas al programa original, sin que se tengan que pagar regalías a los desarrolladores previos.

Palabras clave Software libre, emprendimiento, tecnologías de información y comunicación.

ABSTRACT

Una de las características de este tipo de software es que actualmente se está usando para implementar aplicaciones móviles, servicios en la nube y open data. Esto hace que muchas empresas opten por implantar varias de estas soluciones con el objeto de obtener calidad a bajo costo.

This paper describes the results obtained through a cooperative effort between the “Alta Consejería Distrital de TIC” and the “Universidad Distrital Francisco José de Caldas”, to train a group of citizens in order to generate proposals for entrepreneurship

Dentro de las políticas públicas que se impulsan en Colombia se encuentra el fomentar el uso y apropiación de TIC en todos los niveles de la sociedad, con el objeto de impulsar el desarrollo social, económico y cultural. En este entorno las entidades educativas juegan un papel importante convirtiéndose en el ente facilitador del conocimiento y mediante el cual los ciudadanos pueden adquirir competencias frente al uso de TIC para aplicarlas en su quehacer y mejorar así su nivel de vida.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

El diplomado en software libre para el emprendimiento es una propuesta en la que a través de un convenio de colaboración de las entidades gubernamentales y la universidad [1], se difunde el conocimiento necesario para que los ciudadanos se familiaricen con la implementación y utilización de herramientas de fácil

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

117

Tlamati, Número Especial 3 CICOM 2014 acceso y libre distribución, con el objeto de generar ideas o propuestas de negocio o emprendimiento.

El ciclo de vida es superior, ya que es el propio usuario quien decide cuando realizar mejoras y/o actualizaciones que aumenten su rentabilidad económica, mientras que las organizaciones de software propietario son las que deciden cuando dejan de realizar actualizaciones o mejoras, en otras palabras no existe dependencia de un proveedor.

Existen comunidades y foros que solucionan dudas o proporcionan mejoras.

Muchas herramientas son escalables, es decir, pueden evolucionar al mismo ritmo de crecimiento de una organización.

Contribuye al desarrollo de emprendimiento empresarial, ya que muchas de las herramientas son aplicables en el ámbito de productividad.

Es de fácil acceso educativo, tanto para el sector privado como para el público.

Permite el manejo y trabajo de varios usuarios en un mismo momento.

2. SOFTWARE LIBRE EN LAS EMPRESAS Las TIC como fuentes de información han generado en los emprendedores de negocios nuevos modelos que les permiten ser más competitivos y transformadores en la gestión empresarial. Internet y las TIC han permitido a las organizaciones el acceso a diferentes mercados, nuevos clientes, nuevas formas de elaboración, colaboración y distribución de sus productos o servicios, lo que les permite bajar costos [2]. La utilización del software libre en el entorno empresarial o del pequeño y mediano emprendedor tiene como resultado muchos beneficios tanto en el aspecto económico como técnico. Utilizar programas informáticos o sistemas operativos libres, a nivel económico permite ahorrar dinero en la compra de licencias por la utilización de un software específico, ya que debe existir de por medio un contrato que limita el uso y la adaptación del programa informático, porque se limita la instalación de este en un número determinado de equipos o se restringe a un tipo de aplicación en particular. En este aspecto el gobierno nacional a través del Ministerio de Comercio, Industria y Turismo impulsa el programa de Emprendimientos Basados en Ciencia y Tecnología, el cual propende el desarrollo de propuestas que incorpore elementos de innovación tecnológica, este aspecto es de gran importancia para los pequeños empresarios o emprendedores que quieran vincularse a estos programas y una de las alternativas es utilizar software libre para el desarrollo de las mismas [3].

Entre las desventajas del software libre, se pueden mencionar:

El Software Libre en casi la totalidad de los casos es gratuito o de un precio considerablemente menor, además garantiza las libertades básicas, como la de utilización, modificación y distribución. Existe una gran gama de aplicaciones disponibles para empresas y pequeños emprendedores basadas en este tipo de software que son fáciles de usar y proporcionan grandes ventajas al desarrollo de los procesos en las empresas.

Está más orientado a satisfacer las necesidades de los usuarios.

Es una herramienta que se puede modificar y difundir en forma legal.

En la gestión emprendedora proporciona la libertad de usarlo, copiarlo, distribuirlo e inclusive de modificarlo, con el fin de acondicionarlo y/o adecuarlo a las necesidades de una organización, lo que permitirá bajar costos y ser potencialmente más eficientes y eficaces.

Dificultad en la migración de datos.

No tiene soporte técnico.

No tiene garantía.

No existe un control de calidad previo.

Respecto a la política de uso e implementación de las TIC en el Distrito Capital, dentro del Plan de Desarrollo del programa Bogotá Humana, en el artículo 44 de dicho plan se plantea el Programa “TIC para Gobierno Digital, Ciudad Inteligente y Sociedad del Conocimiento y del Emprendimiento”, en el cual se pretende promover la utilización del Software Libre en el Distrito Capital [5]. Esta política está liderada por la Alcaldía de Bogotá, con el fin de difundir el uso del software libre en la comunidad, permitiendo que cualquier ciudadano tenga acceso a este y pueda usarlo para crear propuestas tecnológicas para el beneficio propio y social de manera gratuita.

Dentro de las ventajas que proporciona el software libre se pueden mencionar: Existe toda clase de herramientas para las necesidades tecnológicas de una organización.

Existen muchas opciones, lo que resulta complejo saber cuál es la mejor herramienta para la cubrir las necesidades tecnológicas de una organización.

3. POLITICA PUBLICA

Una propuesta de colaboración ente la academia y el gobierno local, para el impulso al uso de este tipo de aplicaciones en las pequeñas y medianas empresas en España es OpenPyme, proyecto promovido por la Oficina de Software Libre de la Universidad de la Laguna y la Agencia Canaria de Investigación, Innovación y Sociedad de la Información del Gobierno de Canarias. En el que se integra un conjunto de aplicaciones basadas en software libre para las empresas, con el fin de incrementar su productividad a través de la incorporación de TIC [4].

La entidad encargada de normatizar y reglamentar el uso de las Tic en el Distrito Capital es la Comisión Distrital de Sistemas, la cual ha definido las estrategias de aplicación y apropiación establecidas en dicho programa. Esta entidad pretende fortalecer el acceso universal, el uso y la apropiación social de las Tecnologías de la Información y las Comunicaciones (TIC), así como su aplicación estratégica y coordinada en las entidades distritales, buscando incrementar la eficacia de la gestión pública, disponer de información pertinente, veraz, oportuna y accesible, en los procesos de toma de decisiones, prestación de servicios a la ciudadanía, rendición de cuentas y control social, contribuyendo a la consolidación de la Ciudad incluyente e inteligente y al desarrollo económico, social y cultural de su población.

118

Tlamati, Número Especial 3 CICOM 2014 Los proyectos prioritarios de este programa se referencian en la tabla 1 a continuación. Principios en el acceso a la política de promoción del software libre

Tabla 1: Proyectos prioritarios del programa Tic para gobierno digital, ciudad inteligente y sociedad del conocimiento y del emprendimiento. Nombre Estrategia

Descripción

1.

Hacia un Gobierno Digital y una Ciudad Inteligente

Promover e incorporar de manera estratégica y coordinada el uso intensivo de las TIC para incrementar la aplicación y uso de los medios digitales en la gestión de las entidades distritales, con el fin de mejorar su eficacia y su capacidad de atención y respuesta a las necesidades y demandas ciudadanas, garantizando su participación.

2.

Las TIC, dinamizadoras del conocimiento y del emprendimiento

Promover el uso y apropiación de las tecnologías de la información y la comunicación para brindar a la población mayores oportunidades de acceso al conocimiento y al esparcimiento, así como al desarrollo económico y social con emprendimiento, contribuyendo de esta manera a superar la exclusión social y a cerrar las brechas existentes entre las diversas ciudadanías

Fortalecimiento de los medios comunitarios

Promover y fortalecer los procesos comunitarios distritales o locales de comunicación en la ciudad con el propósito de impulsar la equidad en el acceso a los espacios y medios de comunicación y de fomentar la circulación democrática de opiniones e informaciones.

Promover la utilización del software libre en el Distrito Capital

Implementar en las entidades distritales plataformas basadas en software libre y promover el uso de medios electrónicos para la realización de cobros, pagos y demás diligencias que deban realizar los ciudadanos

3.

4.

Definición

Características

Adecuación y apropiación ante la rápida evolución y la dinámica actual de las Tecnologías de Información y Comunicaciones (TIC).

Establecer la necesidad de contar con soluciones tecnológicas cada vez más costo-eficientes, que permitan obtener beneficios y resultados tangibles en la prestación de servicios a los ciudadanos y en la gestión pública.

La Comisión Distrital de Sistemas formula la política orientada a la promoción y uso de software libre en los sectores central, descentralizado y

Apoyar la formulación y desarrollo de proyectos informáticos y de comunicaciones relacionada con investigar, evaluar, proponer y generar espacios para el aprovechamiento de nuevas soluciones tecnológicas en las entidades, organismos y

Promoción y uso de software libre en el distrito capital

Para la implementación de esta política es necesario que las entidades, organismos y órganos de control del Distrito Capital tengan en cuenta los principios que se relacionan a continuación.

Neutralidad Tecnológica. Consiste en que el marco normativo general que se aplique dentro del comercio telemático no debe optar por un tipo de tecnología en particular. Interoperabilidad. Las soluciones tecnológicas que las entidades, organismos y órganos de control del Distrito Capital deseen adquirir, deben procurar la interoperabilidad con otros sistemas existentes en la misma o diferentes entes distritales, así como soportar estándares abiertos buscando reducir las barreras de acceso y comunicación, sin comprometer la seguridad de la información.

Propiedad Intelectual. Las entidades, organismos y órganos de control del Distrito Capital deben considerar cuidadosamente las posibilidades y limitaciones del modelo de licenciamiento de la solución seleccionada. Seguridad. Las entidades, organismos y órganos de control del Distrito Capital en la adquisición de Sistemas de Información deben tener en cuenta la vulnerabilidad de dichos sistemas durante un tiempo específico. Confiabilidad. Las entidades, organismos y órganos de control del Distrito Capital deben propender por incrementar al máximo la disponibilidad de las soluciones tecnológicas, aumentando su confiabilidad al realizar la actividad en un mayor número de veces con el menor tiempo de interrupciones.

Tabla 2. Aspectos principales de la política pública de promoción y uso del software libre en el Distrito capital. Objetivo y naturaleza

órganos de control del Distrito Capital.

Independencia del Distrito. Las entidades, organismos y órganos de control del Distrito Capital propenderán por la independencia de soluciones, productos tecnológicos o plataformas de proveedores únicos.

Respecto a la definición y promoción de la política que propende en el uso del software libre en las entidades del Distrito Capital, se pueden resaltar los siguientes aspectos (véase tabla 2):

Título

las localidades del Distrito.

La política general de promoción de Software Libre planteada no pretende imponer su uso en las entidades, organismos y órganos de control del Distrito Capital, sino que se considera como una alternativa a la par con otras soluciones del mercado, dependiendo de la equivalencia funcional y tecnológica que corresponda. Esta política se enmarca dentro de una estrategia orientada a la racionalización del gasto público y a la búsqueda de soluciones alternativas que provean las funcionalidades que el Distrito

119

Tlamati, Número Especial 3 CICOM 2014 requiere, a fin de obtener ahorro en la inversión y en el funcionamiento administrativo.

diseño web y la elaboración del plan de negocio de la propuesta, la cual integraba todas las temáticas permitiendo generar documentación y vínculos importantes para cada propuesta de emprendimiento. Lo cual dio como resultado que para cada propuesta se generara un sitio web para la promoción de sus productos o servicios.

Otros proyectos relacionados en dicha política plantean crear el centro de apropiación tecnológica para la reducción de la brecha digital y la alfabetización tecnológica en Bogotá, avanzar en la formulación y desarrollo de la política pública de TIC, implementación de la biblioteca digital del Distrito, la cual prestará el servicio de información en línea con acceso a volúmenes y archivos digitales en el Distrito Capital. Por lo cual se resalta la labor de la Comisión Distrital de Sistemas, que es entidad encargada de vigilar el cumplimiento de las políticas, directrices y lineamientos generales que garanticen la implementación, la divulgación, la aplicación y el seguimiento de la política de promoción y uso del software libre en el Distrito. El desarrollo de la propuesta del Diplomado en Software Libre para el emprendimiento se encuentra inmerso dentro de esta política pública, que incluye la formación del capital humano del distrito capital, especialmente de aquellos que no han tenido mayores oportunidades de acceso a la educación superior o actividades de capacitación, para que a través del Software Libre y su utilización en el desarrollo de propuestas de emprendimiento, mejoren su calidad de vida y se generen oportunidades de empleo a otros ciudadanos en el distrito capital o en la región, aportando también a que la ciudad de Bogotá sea una de las principales capitales de Latinoamérica en el impulso a la utilización e implementación de las TIC en la ciudadanía[6].

Figura 1. Propuesta académica para el uso y apropiación de software libre para el emprendimiento.

4.1 Experiencias Como resultado del proceso de capacitación se generaron Cincuenta y dos (52) propuestas de emprendimiento entre las cuales se presentaron cinco propuestas a nivel de exposición en el evento Festival Latinoamericano de Instalación de Software Libre (FLISOL 2014)[8], realizado en la Ciudad de Bogotá en mayo del presente año.

4. PROPUESTA ACADÉMICA La propuesta académica del diplomado ha sido elaborada desde los grupos de investigación del programa de Tecnología en Sistematización de Datos e Ingeniería en Telemática, los cuales desde la experiencia obtenida en el desarrollo de proyectos de investigación y el desarrollo de pasantías y convenios con entidades privadas y gubernamentales se ha adquirido una experiencia importante y significativa en el uso y aplicación del software libre y en el desarrollo de actividades de formación y capacitación en dichas temáticas [7].

Otra de las iniciativas generadas por la Administración Distrital corresponde al proyecto BOGOTÁ PIENSA TIC, en el cual se pretende financiar un número de proyectos e iniciativas de emprendimiento tecnológico a través de una convocatoria a nivel regional, particularmente por medio de la utilización del Software Libre. Los estudiantes del diplomado participaron en esta convocatoria, en la búsqueda de financiamiento a las propuestas que se venían desarrollando en el diplomado. La Alta Consejería Distrital de TIC ha adelantado el proceso de identificación y revisión de las propuestas de emprendimiento para brindar apoyo económico a dichas propuestas que apoyen el desarrollo de los programas de interés para el distrito.

Para que los participantes del diplomado obtuvieran los conceptos y habilidades necesarias sobre el uso y aplicación de software libre fue necesario definir un conjunto de espacios académicos desde los cuales se desarrollaron habilidades que permitieron definir una propuesta de emprendimiento que se relaciona a continuación.

4.2 Propuestas futuras A partir de esta iniciativa desarrollada entre las entidades gubernamentales y la academia, se han generado nuevas propuestas con el objeto de difundir el uso del software libre en las zonas de influencia de la universidad.

Módulo 1. Aspectos generales del Software Libre. Módulo 2. Sistemas Operativos basados en Software Libre. Módulo 3. Servicios con Software Libre. Módulo 4. Herramientas de Oficina

A continuación se plantean los proyectos a corto plazo para cumplir con este fin.

Módulo 5. Herramientas de desarrollo basadas en Software Libre

-

Desarrollo de las Propuestas de emprendimiento: Integrar grupos interterdisciplinarios para la asesoría y/o ejecución de las propuestas generadas en el diplomado, vinculando a estudiantes de últimos semestres del programa de Tecnología en Sistematización de Datos, los grupos de investigación y los gestores de las propuestas.

-

Congreso de Software Libre para el emprendimiento: pretende generar espacios de discusión y socialización entorno a dichas temáticas para crear vínculos entre la

Módulo 6. Emprendimiento En estos módulos se trataron los temas relacionados con la identificación y diferencias de los distintos tipos de licenciamiento, la utilización e implementación de diferentes distribuciones de sistemas operativos libres, la utilización de herramientas de producción como sets de oficina, aplicaciones para la gestión en nube, el manejo de entornos colaborativos, 120

Tlamati, Número Especial 3 CICOM 2014 académica, el sector productivo y el gobierno, con el objeto de impulsar la generación de empresas de base tecnológica apoyadas en software libre. -

Inclusión de la localidad de Ciudad Bolívar: Promover el desarrollo del diplomado en sectores con menores oportunidades de acceso a programas de educación no formal.

-

Extender la propuesta de capacitación a servidores públicos y docentes del distrito dentro de las políticas de masificación y uso de Software Libre en el Distrito Capital.

de formación y cualificación del recurso humano en la utilización de los recursos tecnológicos que permitan mejorar la productividad de dichas empresas, y de esta forma afrontar los desafíos de la economía actual, como son la firma de tratados de libre comercio con naciones más desarrolladas tecnológica y económicamente, por medio del impulso al emprendimiento entre sus habitantes. Una de las principales estrategias del Estado Colombiano a través del Ministerio de las TIC (MinTic) y del Gobierno Distrital por medio de la Alta Consejería Distrital de TIC, es impulsar el emprendimiento a nivel tecnológico, por medio del apoyo y financiación de iniciativas que promueven el desarrollo de aplicaciones que solucionen necesidades y problemáticas de la ciudadanía y el gobierno, impulsando el desarrollo de pequeña y medianas empresas de base tecnológica, en las cuales la apropiación y utilización del software libre juega un papel importante, y en las cuales las Universidades son una gran fuente de talento para promover el emprendimiento tecnológico.

5. CONCLUSIONES El diplomado en Software Libre para el emprendimiento permitió que alrededor de noventa ciudadanos, de una población heterogénea (distintos rangos de edad, conocimiento, sexo entre otros) pudieran adquirir, mejorar o perfeccionar sus conocimientos en la utilización y aplicación del software libre propendiendo al desarrollo de una propuesta de emprendimiento, generando un alto impacto en la ciudadanía y en los entornos académicos y gubernamentales de la ciudad.

El uso de las plataformas tecnológicas en la educación virtual y en la educación no formal, así como su apoyo en las redes sociales y el desarrollo de aplicaciones en entornos web y móviles, son una gran herramienta para la socialización y aplicación del conocimiento que poseen las universidades e instituciones de educación superior, en el planteamiento de soluciones a problemáticas presentes en su entorno o región, especialmente a nivel de educación como es la cualificación tecnológica del recurso humano que vive en las localidades de una ciudad o región.

Se generaron alrededor de cincuenta y cuatro propuestas de emprendimiento, a las cuales se les realizó un seguimiento en los distintos módulos del diplomado, desde la concepción hasta su formulación y elaboración de un plan de negocio a cada propuesta, así como la utilización de los entornos web para su difusión. También se pretende aplicar y financiar algunas de las propuestas que sean seleccionadas por la Alta Consejería distrital de Tic, para ser implantadas en entidades distritales, particularmente en el campo de la educación y de la administración pública del distrito.

6. REFERENCIAS [1] Alta Consejería Distrital de TIC. Informe de Rendición de cuentas 2013. Disponible en: http://tic.bogota.gov.co/images/rendicioncuentas/presentacionrendicion-de-cuentas.pdf. [Fecha de consulta: Junio 01 de 2014]

Se comprueba que la sinergia entre entidades gubernamentales y académicas permite trabajar mancomunadamente en proyectos de inclusión y alfabetización digital generando impacto a nivel social y tecnológico. La Facultad Tecnológica de la Universidad Distrital, el programa de Tecnología en Sistematización de Datos e Ingeniería en Telemática en unión con la Alta Consejería Distrital de TIC, por medio del Diplomado han generado un impacto positivo en la Ciudad, en particular en la Localidad de Ciudad Bolívar (Localidad 19) una de las localidades con mayor población e índices de necesidades sociales no satisfechas, como es el caso de la salud, educación y acceso a fuentes de empleo en la ciudad de Bogotá.

[2] Escuela de Innovación y Emprendedores. Disponible en: http://www.todostartups.com/bloggers/10-motivos-para-gestionaruna-empresa-con-software-libre-por-iebschool. [Fecha de consulta: Junio 08 de 2014] [3] MINISTERIO DE COMERCIO INDUSTRIA Y TURISMO COLOMBIA. Ventajas para el emprendimiento y la innovación en Colombia. Disponible en: www.mincit.gov.co/descargar.php?id=66003. [Fecha de consulta: Junio 08 de 2014]

Dado el impacto, el nivel de satisfacción por parte de los graduados y la buena aceptación del diplomado en la ciudadanía en general del Distrito Capital, la Alta Consejería Distrital de TIC ha proyectado continuar con el desarrollo del diplomado, financiado la capacitación de nuevas cohortes de estudiantes, para seguir desarrollando propuestas de emprendimiento por medio del software libre, para impulsar el desarrollo económico y social de la ciudad.

[4] OpenPYME: Directorio de Software Libre para Pymes, emprendedores, empresarios y autónomos. Disponible en: http://openpyme.osl.ull.es/. [Fecha de consulta: Junio 10 de 2014] [5] Comisión Distrital de Sistemas. Alcaldía Mayor de Bogotá. Política general para promocionar el uso del software libre en las entidades del D.C. Disponible en: http://www.cds.gov.co/images/Documentos/softlibre/anexo_18_p olitica_software_libre_v12092008.pdf. [Fecha de consulta: Junio 01 de 2014]

Se ve la necesidad de vincular al gobierno local, las agremiaciones de micro, pequeños y medianos empresarios locales y regionales así como la universidad, en los procesos 121

Tlamati, Número Especial 3 CICOM 2014 [8] Festival Latinoamericano de Instalación de Software Libre Bogotá 2014. Disponible en: http://www.flisolbogota.org/. [Fecha de consulta: Junio 15 de 2014]

[6] http://agendabogota.com.co/2013/04/01/software-libre-comouna-politica-publica/. [Fecha de consulta: Junio 10 de 2014] [7] Diplomado en Software Libre para el emprendimiento 2014. Disponible en: http://tecsistematizaciondatos.udistrital.edu.co:8080/diplomados. [Fecha de consulta: Junio 10 de 2014]

122

Tlamati, Número Especial 3 CICOM 2014

Desarrollo Backend del Sistema SIGAF (Sistema de Gestión Académica FCA) Avila Garrido Edgar Iván

Esperanza Manrique Rojas

Universidad Autónoma de Baja California.

Universidad Autónoma de Baja California.

[emailprotected]

[emailprotected]

the development of an information system, the creation and management of schedules can be solved in a superlative way to proceed now. The Backend system development SIGAF responsibility, includes all the business logic required for the development of the platform and Obey programming architecture pattern called Model-View-Controller, the language used is PHP development framework and as used Laravel 4 which facilitates the adoption of pattern-generation architecture and functional code in less time.

RESUMEN El personal de las instituciones educativas elaboran período tras período un esfuerzo académico en conjunto, que resulta en la obtención de los horarios, éstos son utilizados por el cuerpo estudiantil aceptado para el semestre en curso. El proceso de la elaboración y gestión de los horarios de la Facultad de Contaduría y Administración (FCA) demora un lapso de tiempo largo, que sintetizado, pudiera utilizarse en otras actividades. Con el desarrollo de un sistema de información, la creación y gestión de los horarios puede resolverse de una manera superlativa al proceder actual. El desarrollo Backend del sistema SIGAF que compete, contempla toda la lógica de negocio necesaria para la elaboración de la plataforma y obedece el patrón de arquitectura de programación denominado Modelo-Vista- Controlador, el lenguaje utilizado es PHP y como framework de desarrollo se utiliza Laravel 4 que facilita la adopción del patrón-arquitectura y la generación de código funcional en menor tiempo.

1. INTRODUCCION El presente artículo aborda una de las problemáticas generalizadas en las instituciones educativas: la creación de horarios, se procede en la primer parte a exponer un poco de los antecedentes de la situación actual y como se ha sobrellevado hasta la fecha, se exponen de igual manera qué medidas se han encontrado para solucionarlo, también se presentan ejemplos de aplicaciones comerciales y se detalla por qué no se ha considerado el implementar una, posteriormente se expone el problema real y cuáles son las causas que lo originan, así como la propuesta de solución, porqué es viable realizarlo de la manera indicada y se limitan los alcances del proyecto. Después se colocan los objetivos que envuelven el realizar la propuesta de solución y se detalla a fondo el enfoque que se desarrolla a lo largo del artículo, se parte de lo general a lo particular que en el caso es el desarrollo del Backend siendo parte de un sistema complejo y robusto desarrollado desde distintos enfoques que modelan el desarrollo de software moderno.

.

Palabras clave Backend, Programación, Sistemas, Horarios, MVC.

ABSTRACT The staff of educational institutions produce an academic term after term joint effort, resulting in the production of schedules, these are used by the student body accepted for the current period. The process of developing and managing the schedules of the Faculty of Accounting and Administration (FCA) takes a period of time, which synthesized, could be used in other activities. With

El fundamento teórico representa los conceptos desde lo que es una aplicación web hasta qué herramientas se utilizan para el desarrollo del proyecto y porqué son necesarias. Por último se concluye con los avances del proyecto a la fecha y qué recomendaciones se toman para seguir el caso si se tiene un interés más profundo.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

El presente artículo hace énfasis específicamente en la problemática que surge en la Facultad de Contaduría y Administración de la Universidad Autónoma de Baja California, campus Tijuana, para la creación de horarios en base a la

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

123

Tlamati, Número Especial 3 CICOM 2014 disponibilidad docente, el tema: Desarrollo Backend para el Sistema de Gestión Académica de la FCA (SIGAF).

desarrolladores, hoy en día el tipo de aplicaciones es amplio, va desde sistemas típicos locales hasta aplicaciones distribuidas y móviles, el enfoque del desarrollo también ha evolucionado, ya no es una sola persona encargada de la ardua tarea del desarrollo, sino que existe un equipo especializado que cubre cada uno de los aspectos del desarrollo descubiertos a lo largo de la historia del software.

2. ANTECEDENTES Actualmente en la Facultad de Contaduría y Administración (FCA) de la Universidad Autónoma de Baja California, campus Tijuana se imparten cuatro licenciaturas, se ofertan cerca de 240 asignaturas, cuentan con un plantel de 300 a 350 docentes, y por lo regular se generan cerca de 120 grupos por cada semestre del plan de estudios en curso. Todos estos datos son organizados y conjugados por el personal administrativo para crear los horarios de cada grupo de la FCA. Los horarios posteriormente son ofertados al alumnado vigente. Este proceso de obtención de horarios es realizado durante los últimos meses de cada semestre y es organizado por un sistema de información local. El sistema de horarios actual de la Facultad de Contaduría y Administración, en el cual se apoya el personal administrativo para la generación de horarios, fue desarrollado por un estudiante de la Licenciatura de Contabilidad como un proyecto para la FCA en el año 1998, el sistema fue desarrollado en el lenguaje Delphi y se conecta a un fichero de datos InterBase, estos elementos se unieron en una aplicación de escritorio con el que actualmente trabaja el personal administrativo. El sistema posee, la capacidad de generar los grupos de horarios en base a la disponibilidad de los docentes, estas decisiones son tomadas al momento por el personal analista mediante el despliegue de la información en diversas ventanas, el personal elige, captura los grupos, el docente, las materias que se imparten, para posteriormente generar el horario. Una vez introducida la información se crea un reporte de los horarios de cada grupo generado por el personal. Actualmente sigue en desuso el desarrollo y mantenimiento del sistema en cuestión.

Figura 1. Infografía del Desarrollo Web

Hoy en día las capacidades para programar este tipo de aplicaciones han ido en aumento, se han creado lenguajes especializados para la web, ejemplo PHP. Estos lenguajes amplifican las funcionalidades de las páginas web convencionales haciendolas dinámicas para el usuario. La revolución del internet trajo consigo cantidad de lenguajes para programar aplicaciones web, pero con el surgimiento de estas tecnologías se perdió el orden que se tenía al momento de crear código; para solventar esta deficiencia se crearon patrones de programación que separan los elementos de una aplicación en diferentes aspectos para que la organización del código sea mas legible y mantenible por los involucrados en los proyectos a lo largo del ciclo de vida de los sistemas. Surgen los frameworks para ayudar a los desarrolladores de aplicaciones evitar el denomidado “código espaguetti”, haciendo alusión a la mezcla de todos los lenguajes de programación en un solo lugar, estos frameworks, organizan y separan los diferentes elementos haciendo que el desarrollador cree mas funcionalidad con menos código y de forma organizada.

El uso de aplicaciones y sistemas de información de horarios automatizan el proceso de creación. En distintas instituciones educativas se han desarrollado e implementado este tipo de tecnología reduciendo eficazmente la elaboracion de los horarios. Una institución a nivel licenciatura regional es el Tecnologico de Tijuana, que a través de un sistema informatico LAN, crean y ofertan los horarios al alumnado mediante el uso de terminales, los alumnos al interactuar con el sistema, son parte del proceso, lo cual, reduce significativamente el tiempo, ya que delega tareas a varios usuarios y no recae la elaboración de la actividad en una o unas cuantas personas. Existen en el mercado soluciones comerciales que pueden ser adquiridas por los planteles educativos, ejemplo el sistema “aSc TimeTables” de la empresa aSc Applied Software Consultants, el cual fue galardonado por el uso intuitivo del sistema y se puede adquirir mediante su compra en Internet. Estos sistemas generalizados cumplen con la mayoría de los requerimientos de las instituciones educativas para la elaboración del los horarios, sin embargo, existen instituciones donde se necesitan soluciones a la medida por la cantidad de variables involucradas en el proceso de generación y gestión de horarios, como es el caso de la FCA el cual compete actualmente.

3. PROBLEMÁTICA El personal administrativo de la Facultad de Contaduría y Administración (FCA) genera los horarios de las licenciaturas, en un proceso largo, tedioso y con muchos errores a lo largo de su elaboración, tal proceso dura aproximadamente cerca de tres meses por semestre. La realización de dicha tarea se hace de forma semi-manual mediante un sistema de información que no cumple con la funcionalidad requerida, tanto la gestión como la

El desarrollo de sistemas de información ha evolucionado respecto a épocas anteriores, lejos se está de las difíciles y complejas aplicaciones donde la terminal era el uso común de los 124

Tlamati, Número Especial 3 CICOM 2014 creación de horarios se lleva a cabo durante los últimos meses de cada semestre que contemplan el plan de estudios de la FCA por tres personas que interactúan con los coordinadores de carrera, los docentes y directivos a través de documentos en papel, provocando que el análisis de la información se demore en un lapso de tiempo prolongado.

5.1 Objetivo General Desarrollar la arquitectura de programación y la codificación necesaria para la implementación de cada uno de los módulos que contempla el desarrollo del sistema SIGAF (Sistema de Gestión Académica de la Facultad de Contaduría y Administración) mediante la adopción del patrón MVC (Modelo-VistaControlador) utilizando el lenguaje de programación PHP.

Una de las principales causas de la problemática, es el actual sistema de horarios de la FCA, contiene limitaciones en la captura, proceso y salidas de información, si bien el sistema ayuda a la automatización de este procedimiento, su funcionalidad no reduce significativamente las horas de trabajo que conlleva la elaboración y gestión de los horarios, el procesamiento es lento, laborioso y no genera toda la información necesaria por los analistas y el personal involucrado.

5.2 Objetivos Específicos Crear una arquitectura robusta, fluida y sólida que provea de información en tiempo, que el usuario requiere para la automatización en la generación y gestión de los horarios de la facultad.

Por último, la FCA no cuenta con el código fuente del actual sistema, no existe documentación ni manuales de ningún tipo, esto, no permite hacer una modificación o darle mantenimiento, lo hace obsoleto y cerrado para cualquier mejora.

Utilizar el patrón Modelo - Vista - Controlador (MVC) en la construcción de la arquitectura, para ordenar el código escrito mediante el framework de desarrollo LARAVEL, para el lenguaje PHP, lo que permitirá soporte y actualizaciones futuras con el mínimo esfuerzo.

Se propone como solución el desarrollo de una plataforma tecnológica web, que permita la creación y gestión de los horarios con las herramientas necesarias para su elaboración, donde los diferentes usuarios interactúen y complementen la información necesaria para la elaboración.

Priorizar en ofrecer una base sólida para escalar, almacenar y comunicar ágilmente datos entre el FRONTEND y la BD de la aplicación WEB del sistema SIGAF.

4. JUSTIFICACIÓN El proyecto se justifica por la necesidad de agilizar los tiempos, al igual que optimizar los procesos en la generación y gestión de los horarios en el la Facultad de Contaduría y Administración. A continuación se describen los puntos generales para la viabilidad del proyecto: Se cuenta con la tecnología necesaria para desarrollar la plataforma. El costo de las herramientas de desarrollo no serán altos o en su defecto, no existirán porque son herramientas de software libre que se pueden obtener gratuitamente desde internet.

Figura 2. Marco teórico Desarrollo Backend.

El tiempo de elaboración es el suficiente para obtener la plataforma tecnológica. Hay un equipo de desarrollo completo que cubre cada uno de los aspectos necesarios en la construcción y desarrollo de la plataforma.

6. MARCO TEÓRICO El siguiente marco conceptual desglosa el contenido del marco teórico, como se aprecia en la figura 2 se manifiestan tres áreas que, en la primera se da fundamento a los tipos de arquitecturas web, se prosigue con las áreas del desarrollo web y se culmina con el fundamento del área especializada para el desarrollo de aplicaciones Backend.

5. OBJETIVOS

125

Tlamati, Número Especial 3 CICOM 2014 modelo de tres capas en el que se separan los elementos que interactúan entre sí en niveles, organizan y optimizan el flujo de trabajo de las aplicaciones web. Generalmente se divide en tres niveles:

6.1 ¿Qué es Backend? Según el artículo publicado en Maestros del Web los profesionales Backend “son los autores de la ejecución y lógica de las aplicaciones web” (Herts, s.f.) citó: Los profesionales backend entienden que hay diferentes formas de resolver un problema y que cada solución puede encontrarse en: Patrones de acceso a información.

1.

Nivel de presentación: es el encargado de generar la interfaz de usuario en función de las acciones llevadas a cabo por el mismo.

2.

Nivel de negocio: contiene toda la lógica que modela los procesos de negocio y es donde se realiza todo el procesamiento necesario para atender a las peticiones del usuario.

3.

Nivel de administración de datos: encargado de hacer persistente toda la información, suministra y almacena información para el nivel de negocio.

Características de velocidad. Operaciones sintetizadas. Potencial de automatización. Diseño de métodos para escalar información más allá de la capacidad del hardware. Un profesionista de Backend sabe hablar con claridad y explicar los problemas para todo su equipo de manera simple al integrar una aplicación. Finalmente los aspectos que deben considerar son: Escribir código es importante.

que

resuelva

un

Las aplicaciones web a diferencia de otro tipo de programa tienen la parte del procesamiento comúnmente en un solo equipo denominado servidor, la infraestructura que soporta a la aplicación cambia la forma tradicional en que se desarrolla y mantienen los programas, a continuación se listan las características de este tipo de programa:

problema

Escribir código que resuelva un problema y maneje condiciones para los diferentes errores es más importante.

El usuario puede acceder fácilmente a estas aplicaciones mediante un navegador web (cliente) o similar.

Escribir código que resuelva problemas, maneje condiciones para múltiples peticiones simultáneamente sin errores es mucho más importante.

Si es por internet, el usuario puede entrar desde cualquier lugar del mundo donde tenga un acceso a internet.

Escribir código que haga todo lo anterior, al asegurar los segundos de entrega, es primordial.

Pueden existir miles de usuarios pero una única aplicación instalada en un servidor, por lo tanto se puede actualizar y mantener una única aplicación y todos sus usuarios verán los resultados inmediatamente.

El Backend de una aplicación se encarga de implementar en el desarrollo de aplicaciones web bases de datos como MySQL, PostgreSQL, SQL Server o MongoDB. Se implementan lenguajes de programación como PHP o JSP, o frameworks como RoR, Django, Node.JS o .NET que se conectan a la base de datos. A través de estos lenguajes y frameworks se recibe, procesa y envía información al navegador del usuario.

Emplean tecnologías como Java, JavaFX, JavaScript, DHTML, Flash, Node.js, Ajax... que dan gran potencia a la interfaz de usuario. Emplean tecnologías que permiten una gran portabilidad entre diferentes plataformas. Por ejemplo, una aplicación web flash podría ejecutarse en un dispositivo móvil, en una computadora con Windows, Linux u otro sistema, en una consola de videojuegos, etc.

6.2 Arquitectura de Sistemas Web Como se define en el sitio Diccionario de Informática (ALEGSA, 2013) “en general, el término también se utiliza para designar aquellos programas informáticos que son ejecutados en el entorno del navegador (por ejemplo, un applet de Java) o codificado con algún lenguaje soportado por el navegador (como JavaScript, combinado con HTML); confiándose en el navegador web para que reproduzca (rende-ricé) la aplicación”.

6.3 Áreas Del Desarrollo Web y Backend de Aplicaciones Actualmente el desarrollo web puede clasificarse en las siguientes áreas: Interfaces de usuario (GUI´s), Lógica de Programación (Backend), Diseño Gráfico, UX – User Experience, Usabilidad. Posicionamiento, Estrategia, Arquitectura de información (Vega, CRISTALAB, 2013).

Las aplicaciones web se han convertido en pocos años en complejos sistemas con interfaces de usuario cada vez más parecidas a las aplicaciones de escritorio, dan servicio a procesos de negocio de considerable envergadura y establecen sobre ellas requisitos estrictos de accesibilidad y respuesta. Esto ha exigido reflexiones sobre la mejor arquitectura y las técnicas de diseño más adecuadas (Garrido, 2004). Un tipo de arquitectura es el

El área del Backend es el área que soluciona procesos de información, fluidez de datos, arquitectura interna y usualmente está basado en servidores remoto, (Vega, BACKEND

126

Tlamati, Número Especial 3 CICOM 2014 PROFESIONAL, 2013). Conecta el modelo de negocio con las interfaces de usuario. Un lenguaje de programación es un lenguaje artificial que puede ser usado para controlar el comportamiento de una máquina, especialmente una computadora. Estos se componen de un conjunto de reglas sintácticas y semánticas que permiten expresar instrucciones que luego serán interpretadas (Alegsa, 2005). El control de versiones es un sistema que registra los cambios realizados sobre un archivo o conjunto de archivos a lo largo del tiempo, de modo que puedas recuperar versiones específicas más adelante. Se emplea para archivos que contengan código fuente comúnmente, pero puedes emplearlo para casi cualquier tipo de archivo que encuentres en un ordenador. (Libros Web, 2014).

Figura 3. Desarrollo SCRUM

El patrón de arquitectura MVC (Modelo Vista Controlador) es un patrón que define la organización independiente del Modelo (Objetos de Negocio), la Vista (interfaz con el usuario u otro sistema) y el Controlador (controlador del workflow de la aplicación). (Desarrollo Web, 2014).

Mediante el uso de PHP se está programando toda la funcionalidad de la aplicación y se está utilizando Laravel para la adopción del modelo vista controlador, es necesario mencionar que la organización y documentación del código generado es importante para alcanzar los objetivos del proyecto, la arquitectura es la parte medular del sistema por lo que es fundamental que se tenga un estricto control sobre él y un pleno entendimiento por parte del equipo de desarrollo, toda la documentación técnica se está realizando para tener una mejor concepción del sistema.

7. METODOLOGÍA Como desarrollo en general del proyecto se utilizara la metodología ágil SCRUM que consiste en un marco de trabajo que define las buenas prácticas necesarias y los roles para el diseño y desarrollo de entregables de un sistema, en períodos no mayores a un mes hasta completar la funcionalidad total del sistema requerido.

Se recomienda seguir los módulos del proyecto SIGAF ya que no solo se tratan la cuestión de la generación y elaboración de los horarios si no que se contemplan funcionalidades adicionales, se recomienda profundizar en las arquitecturas de programación que dan soporte a los sistemas y utilizar con más frecuencia los frameworks de desarrollo para evitar largos tiempos de desarrollo y más funcionalidad en los proyectos que involucren el desarrollo de sistemas.

Los roles principales en Scrum son el ScrumMaster, que mantiene los procesos y trabaja de forma similar al director de proyecto, el ProductOwner, que representa a los stakeholders (interesados externos o internos), y el Team que incluye a los desarrolladores. El desarrollo de un sistema mediante esta metodología se trabaja mediante sprint´s, cada sprint define un período de tiempo comprendido entre una y cuatro semanas (el tiempo es definido por el equipo de desarrollo), durante el sprint el equipo diseña, prepara y desarrolla un incremento de software potencialmente (entregable). El conjunto de características que forma parte de cada sprint viene descrito en el Producto Backlog, que es un conjunto de requisitos de alto nivel priorizados que definen el trabajo a realizar comúnmente denominadas (historias de usuario). Los elementos del Product Backlog que forman parte del sprint a trabajar se determinana durante la reunión del Sprint Planning, durante esta reunión, el Product Owner identifica los elementos del Producto Backlog que quiere ver completados y los hace del conocimiento del equipo. Entonces, el equipo determina la cantidad de ese trabajo que puede comprometerse a completar durante el siguiente sprint. Durante el sprint, nadie puede cambiar el Sprint Backlog que definieron el Producto Owner y el Team de desarrollo, lo que significa que los requisitos están congelados durante el sprint.

9. REFERENCIAS [1] ALEGSA. (5 de 12 de 2013). ALEGSA.COM.AR. Obtenido de http://www.alegsa.com.ar/Dic/aplicacion%20web.php [2] Garrido, J. S. (2004). Arquitectura y diseño de sistemas web modernos. Revista de Ingeniería Informática del CIIRM, 1-6. [3] Herts, C. V. (s.f.). MAESTROS DEL WEB. Obtenido de http://www.maestrosdelweb.com/editorial/frontend-backendduplicando-programacion/ [4] Robert Orfali, D. H. (1999). Cliente/Servidor y objetos Guía de Supervivencia. México: OXXFORD. [5] Vega, F. (5 de 12 de 2013). BACKEND PROFESIONAL. Obtenido de https://cursos.mejorando.la/cursos/backendonline/material/un-backend-profesional/ [6] Vega, F. (5 de 12 de 2013). CRISTALAB. Obtenido de http://www.cristalab.com/blog/que-significa-backend-yfrontend-en-el-diseno-web-c106224l/

8. CONCLUSIONES Y RECOMENDACIONES Actualmente el desarrollo del Backend está en progreso, se mantiene un control sobre las versiones del proyecto y se mantiene separada el área de Frontend y base de datos. 127

Tlamati, Número Especial 3 CICOM 2014

Emulación de un pizarrón interactivo haciendo uso de un Kinect Maricruz Sánchez Vázquez

Eric Rodríguez Peralta

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Av. Lázaro Cárdenas S/N, CU Chilpancingo, Gro.

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Av. Lázaro Cárdenas S/N, CU Chilpancingo, Gro.

[emailprotected]

[emailprotected]

para el control de dispositivos tecnológicos ha despertado un gran interés en el desarrollo de proyectos relacionados en el campo de la interacción hombremáquina. Por un lado, este interés ha sido causado por el desarrollo de dispositivos tecnológicos más sofisticados gracias al rápido crecimiento en potencia computacional, que ha permitido resolver problemas complicados. Por otro lado, la aparición de dispositivos relativamente económicos que pueden ser utilizados en el desarrollo de proyectos interactivos. Las principales áreas de análisis de movimiento humano son la vigilancia, la medicina, los juegos, la interfaz hombremáquina y la animación. Las principales áreas de investigación son el reconocimiento de gestos humanos, análisis de movimiento y seguimiento.

RESUMEN La presente investigación pretende explorar la posibilidad de utilizar las capacidades de los sensores de un Kinect XBOX 360 que permita simular las actividades de un pizarrón interactivo para dar soporte a actividades educativas. El Kinect se define como un dispositivo de interacción natural, un nuevo paradigma en el campo de la interacción humano-computadora. La interacción natural se refiere al concepto por el cual la interacción con los equipos está basada en los sentidos de los seres humanos. El objetivo principal de este paradigma consiste en transformar las interfaces y dispositivos utilizados en los últimos años de evolución de la tecnología, en una interacción más intuitiva y natural sin la necesidad de usar dispositivos particulares o aprender complicadas instrucciones para usarlos. El Kinect puede desempeñar perfectamente este papel en el proceso de transformación en el desarrollo de los nuevos paradigmas de interacción.

En al ámbito de la educación se han desarrollado dispositivos de interacción innovadores que han facilitado el proceso enseñanza-aprendizaje, como es el caso de los pizarrones interactivos; sin embargo, su elevado costo dificulta su adquisición en las instituciones educativas. En el laboratorio de Tecnologías Avanzadas de Unidad Académica de Ingeniería de la Universidad Autónoma de Guerrero, se está trabajando en la búsqueda de soluciones a este problema, examinando nuevas tecnologías y nuevos paradigmas de interacción.

1. INTRODUCCIÓN En la actualidad, el análisis del movimiento humano El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

El Kinect fue lanzado al mercado en Noviembre del 2010 como una tecnología orientada a los juegos de consola [3]; sin embargo, en la actualidad es considerado como una tecnología que presenta un nuevo paradigma de interacción que puede dejar obsoletos los actuales periféricos utilizados para la introducción de datos en una computadora. Este dispositivo ha originado un gran 128

Tlamati, Número Especial 3 CICOM 2014 tipos de imágenes que se podrán obtener de un sensor son: imágenes monocromáticas e imágenes multiespectrales. El primer tipo son imágenes de una función bidimensional de la intensidad de la luz, en la fórmula 1 se representa matemáticamente la función de la imagen:

interés en la creación de diversos proyectos de investigación en diferentes áreas de la ciencia, estos proyectos han sido soportados por diferentes kits de desarrollo emergentes que facilitan la programación y control de este dispositivo. Una de las librerías de código abierto más utilizadas para el desarrollo de aplicaciones basadas en el Kinect se conoce como OpenNI [2].

I = f (x, y)

2. OBJETIVOS

donde I se refiere al valor de intensidad de la imagen f (x, y) a las coordenadas en la imagen donde se encuentra ese valor de intensidad, la figura 1, muestra ejemplo de su representación matemática. Por otro lado, las imágenes multiespectrales son aquellas imágenes formadas por varios componentes como planos que tenga la imagen, su modelo matemático consiste en tantas matrices como componentes tenga la imagen, matemáticamente se representa como un vector, la figura 2 muestra ejemplo de la representación de una imagen a multiespectral con tres componentes:

Explorar la viabilidad de utilizar nuevas formas de interacción con la computadora basadas en técnicas de visión computacional y los problemas relacionados con su introducción en el desarrollo de aplicaciones, entendiendo así las capacidades y características que ofrecen para emular un pizarrón interactivo usando el Kinect como sensor de entrada. 2.1. Objetivos específicos •

• •

(1)

Modelar la función de un apuntador convencional, utilizado como dispositivo de entrada a la computadora, mediante el uso de un Kinect XBOX 360. Modelar comandos básicos de control que permitan emular un pizarrón interactivo. Realizar un análisis de los problemas y posibles soluciones surgidos de la introducción de esta tecnología y sus posibles aplicaciones en el ámbito educativo.

f(x, y) = (f1 (x, y), f2 (x, y), . . . , fn (x, y))

(2)

El color de una imagen en visión es importante debido a que esta puede contener información relevante para su tratamiento, algunas de las características en una imagen

3. VISIÓN ARTIFICIAL “Visión es un proceso que se produce a partir de las imágenes del mundo exterior, una descripción que es útil para el observador y que no tiene información irrelevante”. El procesamiento de imágenes es una área de la visión artificial, cuyo objetivo es mejorar la calidad de las imágenes para su posterior utilización o interpretación. El objetivo de la visión artificial consiste en extraer ciertas características de una imagen para su descripción e interpretación por la computadora.

Figura 1: Modelo matemático de una imagen monocromática.

son: orillas, color, textura, gradiente y profundidad, la figura 3 muestra ejemplo de estas. La percepción del ojo humano referente al color depende de la naturaleza de la luz que sea reflejada sobre un objeto. La luz visible es parte del espectro electromagnético, y el color está en relación con la longitud de onda dentro del espectro visible, ver figura 4. Se identifican tres atributos básicos del color:

Estos conceptos hacen necesario comprender el concepto de formación y tipo de imágenes en la computadora. La formación de una imagen digital ocurre cuando un sensor, dispositivo electrónico, registra la radiación (luz) que ha interactuado con ciertos objetos físicos. Su representación matemática consiste en una matriz rectangular de M renglones por N columnas, donde cada celda de la matriz representa un pixel de la imagen, este pixel tiene asociado su valor de intensidad. Los diferentes

Longitud de onda dominante o croma (hue) 129

Tlamati, Número Especial 3 CICOM 2014 anteriormente hace necesario describir más a detalle la arquitectura de hardware del Kinect, sus especificaciones técnicas y modos de operación.

Pureza (saturación) Brillantez o intensidad La identificación del croma de una imagen se hace mediante la combinación de 3 señales, de las cuales se pueden percibir gran cantidad de colores. A estos se les denomina colores primarios (rojo, verde y azul). Los colores obtenidos de las mezclas de pigmentos en pares son colores secundarios (amarillo, magenta, cian), la mezcla de los tres colores, es el blanco. Existen varias representaciones o modelos de color [1], los cuales se dividen en dos clases: modelos sensoriales y modelos perceptuales. El primer modelo son aquellos orientados a los equipos o dispositivos, en este tipo de modelos se encuentra al modelo RGB, CMYK y YIQ. Los modelos perceptuales son orientados al procesamiento de imágenes visión entre los que se encuentran los modelos HSV, HLS y HSI. El modelo más popular es el RGB, una imagen en formato RGB contiene tres componentes: Rojo, Verde y Azul. Actualmente existen diferentes dispositivos electrónicos capaces de capturar imágenes de diferentes tipos como: imágenes formadas por luz visible, imágenes formadas por sensores de rango, imágenes formadas por IR (radiación térmica), imágenes formadas por resonancia magnética e imágenes formadas por radiación de rayos X.

Figura 3: Características intrínsecas en una imagen a color que pueden ser relevantes para su tratamiento: orillas, color, textura, gradiente y profundidad.

El Kinect es un dispositivo que cuenta con sensores visuales que permiten registrar diferentes características que lo hacen útil para el desarrollo de aplicaciones en diferentes áreas de las ciencias. Para el desarrollo de este

Figura 4: El color de los objetos está en relación directa con la luz visible que forma parte del espectro electromagnético.

3.1 El Kinect del XBOX 360 La tecnología Kinect creada originalmente para juegos de consola, realiza el reconocimiento de gestos y movimientos que permiten al usuario interactuar con el dispositivo sin necesidad de tener un contacto físico con él. Como se puede observar en la figura 5, este dispositivo está formado por diversos componentes y tecnologías que le ofrecen al usuario nuevas experiencias de interacción que involucran varios de sus sentidos.

Figura 2: Modelo matemático de una imagen multiespectral.

proyecto se pretende utilizar las imágenes captadas por el Kinect, procesarlas para extraer ciertas características que permitan modelar las funciones de los dispositivos de entrada para desarrollar una nueva forma de interacción orientada al ámbito educativo. Lo expuesto 130

Tlamati, Número Especial 3 CICOM 2014

Figura 5: Componentes electrónicos que componen la arquitectura de hardware del Kinect. Figura 7: Las cámaras infrarrojas del Kinect permiten detectar de manera eficiente la profundidad de los objetos en una imagen.

El Kinect cuenta con varios tipos de sensores, la figura 6 muestra cada uno de ellos. Cuenta con una cámara RGB para la captura de las imágenes a color, un sensor de audio para interactuar con la voz, un servomotor para ajustar la inclinación del dispositivo y cámaras infrarrojas que permite diferenciar la profundidad e identificar los movimientos a una distancia aproximada entre 1 y 3 metros, en la figura 7 se puede apreciar un ejemplo de ello.

aplicaciones y herramientas en diversas áreas. Esto ha provocado la generación de kits de desarrollo tanto privados como ya abiertos que facilitan su programación. De aquí surge el interés de desarrollar e implementar una aplicación orientada al ámbito de la educación.

3.2 Interacción natural Se trata de un nuevo paradigma tecnológico donde las interacciones con los dispositivos se basa en los sentidos de los seres humanos, esto está estrechamente relacionado con las interfaces de usuario naturales consideradas como el próximo paso en la evolución de interfaces que tiene el objetivo la creación de interfaces orgánicas basadas en el paradigma de la interacción natural del ser humano como son el tacto, la visión y el reconocimiento de voz [2]. Bajo este contexto, la idea central de este proyecto consiste en el desarrollo de una aplicación que permita una interacción con la computadora de manera más natural e intuitiva, sin la necesidad de utilizar dispositivos particulares o aprender complicadas instrucciones de control, todo esto utilizando el kit de desarrollo OpenNI, ver figura 8.

Figura 6: Diferentes tipos de sensores que conforman el Kinect.

La aparición de este dispositivo orientado principalmente para su uso en juegos de video, ha generado mucho interés en el desarrollo de diferentes

131

Tlamati, Número Especial 3 CICOM 2014 busca que el alumno sea el principal constructor de su conocimiento y el docente tendrá que generar nuevas competencias que le permitan diseñar contenidos de aprendizaje nuevos y actualizados a partir de sus cursos tradicionales.

5. REFERENCIAS Figura 8: Kit de desarrollo abierto para la programación del Kinect.

[1] Tony F. Chan, Sung Ha Kang, and Jianhong Shen. Total variation denoising and enhancement of color images based on the cb and hsv color models. Journal of Visual Communication and Image Representation, 12:422–435, 2001.

4. CONCLUSIONES Con la presente investigación se pretenden incorporar nuevos paradigmas de interacción humano computadora, para así contribuir al nuevo conocimiento científico, al desarrollo tecnológico y al área de la educación con el desarrollo de una herramienta interactiva de enseñanzaaprendizaje de bajo costo, utilizando la tecnología del Kinect, dispositivo creado para un ámbito diferente (juegos de consola).

[2] OpenNI. Open user guide, openni versión 3. URL http://www.openni.org/images/stories/pdf/OpenNIUserGuide v3.pdf, Octubre 2011. Fecha de consulta, 17 de Junio del 2013. [3] D Takashi. Microsoft games exec details how project natal was born. URL http://venturebeat.com/2009/06/02/microsoft-games-executive-describes-originsof-project-natal-game-controls/, Septiembre 2011. Fecha de Consulta: 18 de Junio del 2013.

La incorporación del pizarrón interactivo de bajo costo en los procesos de enseñanza aprendizaje representa un cambio de paradigma en la forma de interactuar con los equipos y en el aspecto de la docencia, tanto para el alumno como para el docente, ya que con este proyecto se

132

Tlamati, Número Especial 3 CICOM 2014

Algebrator: un recurso para resolver una ecuación de segundo grado Angelino Feliciano Morales

René E. Cuevas Valencia,.

Arnulfo Catalán Villegas

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo Guerrero; México

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo Guerrero; México

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo Guerrero; México

[emailprotected]

[emailprotected]

[emailprotected]

RESUMEN Palabras clave:

En este trabajo se presenta una descripción del resultado de un análisis sobre software matemático existente, con la finalidad de sugerir su utilización en la educación secundaria en el área de Álgebra. En particular, el análisis está orientado a seleccionar una herramienta tecnológica e implementarla en la solución de una ecuación de segundo grado utilizando la fórmula general. Por otro lado, se pretende mostrar la eficiencia del software para proponerlo a los docentes lo utilicen para mejorar el diseño de estrategias de aprendizaje en la enseñanza de la matemática. Seguramente la implementación de aplicaciones computacionales en la educación matemática tendrá resultados positivos en las nuevas generaciones de estudiantes de éste nivel.

Software matemático, software educativo, algebrator, ecuación de segundo grado

1. Introducción El uso de la tecnología de la Información y Comunicación (TIC) en las distintas áreas de los profesionistas como de la investigación ha permito organizar de una mejor manera los resultados obtenidos. Del mismo modo en educación el uso de las TIC han contribuido en la construcción de un aprendizaje significativo por parte de los estudiantes a nivel de secundaria(educación básica).

ABSTRACT

Para aprovechar este entorno al máximo, es necesario un cambio de actitud en la mayoría de los docentes utilizando herramientas computacionales como software matemático lo cual debe favorecer el entorno tecnológico que tiene el estudiante en la manipulación de su teléfomo móvil.

This paper presents a description of the result of an analysis of existing mathematical software, with the purpose to suggest its use in the secondary education in the area of algebra. In particular, the analysis is designed to select a technological tool and deploy it to the solution of a quadratic equation using the general formula. On the other hand, it is intended to show the efficiency of the software to propose it to the teachers use it to improve the design of learning strategies in the teaching of mathematics. Surely the deployment of computer applications in mathematics education will have positive results in the new generations of students at this level.

La implementación de las TIC en educación es reciente, sin embargo es tangible, dado que propicia que el estudiante interactúe, participe e investigue por su propia iniciativa para ampliar su conocimiento. Esto favorece su realimentación porque tiene fácil acceso a estas herramientas, además propicia que en las aulas se genere un ambiente de armonía en el trabajo. Historicamente, la comprensión de la Matemática ha sido una de las asignaturas con mayor complicación en cualquier nivel educativo, desafortunadamente se ha caracterizado por el poco interés que los estudiantes muestran, complicando así el “proceso enseñanza – aprendizaje”. Sin embargo, aquí es donde el software educativo de matemáticas puede contribuir en el desarrollo de habilidades cognitivas en el estudiante, el cual es imprescindible para este proceso.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

2. ANTECEDENTES El impulso de la electrónica iniciada constituye el punto de partida para el progreso creciente de la era digital. Las investigaciones desarrolladas a principios de los años 80 133

Tlamati, Número Especial 3 CICOM 2014 permitieron la convergencia de la electrónica, la informática y las telecomunicaciones posibilitando la combinación entre la electrónica y el software.

actividades presentan contenidos y proporcionan cierta información estructurada de la realidad hacia los estudiantes para ser utilizada en su aprendizaje.

Durante mucho tiempo, los métodos para la enseñanza eran las clases presenciales y el estudio de textos. En la actualidad las formas de enseñar y aprender han cambiado: las TIC han proporcionado herramientas motivacionales y creativas que favorecen la construcción de aprendizajes significativos.

b.

Los programas educativos tienen la finalidad de orientar y regular el aprendizaje de los estudiantes, dado que, promueven determinadas actuaciones, encaminadas a facilitar el logro de los objetivos. Además condicionan el tipo de aprendizaje que se realiza, por ejemplo, pueden disponer un tratamiento global o secuencial de la información (propio de los medios audiovisuales o textos escritos). En general el ordenador actúa como mediador en la construcción del conocimiento y la meta de los estudiantes. Estos programas, son tutoriales que realizan de manera explícita la función instructiva, dirigiendo las actividades de los estudiantes en función de respuestas y progresos

Las primeras ideas sobre el desarrollo del software educativo aparecieron en la década de los 60’s, tomando mayor auge después de la aparición de las microcomputadoras a fines de los 80 s. Esto ha propiciado que en la actualidad sea una herramienta importante en el ámbito educativo. La planeación didáctica, cuando se llevan a la practica, realiza funciones básicas de organización de las actividades diseñadas para abordar el contenido de la asignatura, además, en algunos casos, según la forma que determine el profesor, pueden proporcionar funcionalidades específicas.

c.

d.

3. DESARROLLO

3.1 Clasificación de las funciones del software educativo. educativo

Tabla 1. Clasificación de funciones del software educativo.

e.

Función investigadora

Los programas, como las bases de datos y simuladores ofrecen a los estudiantes entornos interesantes donde investigar, buscar determinada información, cambiar los valores de las variables de un sistema, etc. Además estas herramientas, proporcionan a los profesores y estudiantes instrumentos de gran utilidad para el desarrollo de trabajos de investigación que se realicen básicamente al margen de los ordenadores.

Clasificación de software educativo, según su función Función informativa Función instructiva Función motivadora Función evaluadora Función investigadora Función expresiva Función innovadora

f.

Función expresiva

Dado que los ordenadores procesan símbolos mediante los cuales las personas representan conocimientos y comunican, sus posibilidades como instrumento expresivo. Desde el mito de la informática que se está tratando. Los estudiantes expresan y se comunican con el ordenador y con otros compañeros a través de las actividades de los programas y, especialmente, cuando utilizan lenguajes de programación, procesadores de textos, editores de gráficos, etc. Otro aspecto a considerar al respecto es que los ordenadores no suelen admitir la ambigüedad en sus "diálogos" con los estudiantes, de manera que éstos se ven

3.2.Análisis de la funciones del software En seguida se especifican cada una de las funciones del software educativo analizado con relación a la enseñanza del Álgebra en el nivel secundaria, las cuales son: a.

Función evaluadora

La interactividad de estos materiales les permite responder inmediatamente las acciones de los estudiantes, así como evaluar el trabajo que se va realizando con ellos. Esta evaluación puede ser de dos tipos: implícita o explícita. Es implícita, cuando el estudiante detecta sus errores, se evalúa, a partir de las respuestas que le da el ordenador. Explícita, cuando el programa presenta un informe, valorando la actuación del estudiante. Este tipo de evaluación la realizan los programas que disponen de módulos específicos de evaluación.

En el presente trabajo se analiza la función que tiene el software educativo existente para la enseñanza del Álgebra en la Educación Secundaria..

software

Función motivadora

Generalmente, los estudiantes son atraídos e interesados por el software educativo. Dado que los programas incluyen elementos para captar la atención de los educandos, manteniendo su interés en los aspectos importantes de las actividades. Por tanto, esta función, es una de las características de este tipo de materiales didácticos, y resulta indispensable para los profesores.

Sin embargo, no se puede afirmar que el software educativo por sí mismo sea bueno o malo, todo depende de la manera como se utilice en cada situación concreta. En última instancia su funcionalidad y las ventajas e inconvenientes que pueda generar su uso depende de las características del material, de su adecuación al contexto educativo al que se aplica y de la manera en que el profesor organice su utilización.

Las funciones identificadas en el seleccionado se enlistan en la tabla 1.

Función instructiva

Función informativa

El software educativo es un programa que a través de sus

134

Tlamati, Número Especial 3 CICOM 2014 obligados a cuidar la precisión de sus mensajes.

3.4.2. Microsoft Mathematics

Aunque no siempre los planteamientos pedagógicos resultan innovadores, los programas educativos se pueden considerar materiales didácticos, ya que utilizan una tecnología recientemente incorporada en los centros educativos y en general, permiten diversas formas de uso. Esta versatilidad abre amplias posibilidades de experimentación didáctica e innovación educativa en el aula.

Microsoft Mathematics es un sistema de cálculo algebraico gratuito y con una interfaz amigable. Funciona en paralelo con la enseñanza y favorece su entorno para que los estudiantes se mantengan involucrados en el aprendizaje de la Matemática. Los estudiantes de Álgebra y Geometría se benefician al obtener una solución rápida y clara de ecuaciones, el sistema crea una película personalizada donde la figura oscila de atrás hacia adelante, desde dos superficies cuadráticas como un paraboloide hiperbólico y elíptico.

3.3. Problemática en el Método de enseñanza del álgebra.

3.4.3. Derive

Las complicaciones que tienen los estudiantes en el área de. matemáticas en el nivel medio superior se debe a la falta de estrategias y dominio del conocimiento del docente para impartir Álgebra. Generalmente estos temas de introducción al Álgebra son tratados en los planes de estudio a nivel de Secundaria. Por tanto, se hace necesario tomar con seriedad la metodología de la enseñanza de ésta asignatura para que el estudiante no lo tome como una obligación.

Es un programa de matemáticas que permite realizar cálculos numéricos y simbólicos con Álgebra, Trigonometría, Cálculo Diferencial e Integral, además, gráfica en dos o tres dimensiones. Es una herramienta excelente para aplicarse en tareas matemáticas. (Kutzler Bernhard, 2003) Para un docente, el Derive le brinda de manera rápida y eficaz una gama de distintas operaciones matemáticas. En el uso cotidiano de este software en su trabajo de facilitador, dispondrá de un asistente amable y potente.

g.

Función innovadora

Diferentes estudios han demostrado que los estudiantes prefieren. estudiar Álgebra con situaciones de la vida cotidiana en lugar de. los contenidos establecidos en los planes de estudio. . La capacidad que desarrolla el estudiante al resolver problemas verbales de Álgebra, puede considerarse como un indicador para valorar el nivel de conocimiento que se está generando. En consecuencia, el estudiante es capaz de comprender e interpretar las relaciones matemáticas involucradas en este tipo de problemas. Los sistemas de representación ponen de manifiesto los procesos cognitivos y son necesarios para comunicar ideas de matemáticas, al considerarse como lenguaje oral o escrito, objetos físicos y en particular el uso de software educativo debe fortalecer el conocimiento matemático del estudiante en su formación académica.

3.4.4. Derivator Este software está diseñado para trabajar con la derivada de una función. Este programa no solo muestra el resultado, sino que describe el proceso de solución del problema. Tiene la posibilidad de almacenar el resultado en texto, lo cual permite editarse y adjuntar notas o realizar las observaciones necesarias del proceso. Los editores de texto con los que se puede trabajar son de todo tipo, es decir, este software es portable en las tres plataformas de sistema más utilizadas (Windows, Mac y Linux). 3.4.5. Maximaº Es un sistema para la manipulación de expresiones simbólicas y numéricas incluyendo diferenciación, integración, expansión de series Taylor, transformadas de Laplace, ecuaciones diferenciales ordinarias, sistemas de ecuaciones lineales, vectores y matrices. Maxima genera resultados con alta precisión usando fracciones exactas. Además, permite graficar en segunda y tercera dimensión.

3.4 Descripción del software existente La computadora provee un aprendizaje dinámico e interactivo que permite la visualización de situaciones problemáticas. La posibilidad de visualizar gráficamente conceptos teóricos que intervienen en la resolución de problemas, favoreciendo el aprendizaje de los estudiantes. No obstante, se debe tener claro que la tecnología educativa es un elemento importante para mejorar los procesos de enseñanza - aprendizaje, esta mejora no depende solamente de la utilización de un software educativo, sino de su integración curricular en forma adecuada, es decir, del entorno educativo diseñado por el profesor. A continuación se describe el software relacionado con la enseñanza del Álgebra.

3.4.6. Octave Octave es un programa libre para realizar cálculos numéricos, es parte del proyecto de GNU (Linux), Matlab se considera como un equivalente, sin embargo, es comercial. Entre varias características que comparten se puede notar que ambos programas ofrecen un intérprete que permite ejecutar órdenes en modo interactivo. Octave no es un sistema computacional como lo podría ser Maxima, la diferencia que este software usa un análisis numérico.

3.4.1 Algebrator El sistema del Álgebra de las computadoras (CAS), Computer Asistence Sistem, es un software que permite visualizar el proceso de la solución del problema, el cual fue desarrollado en los 90 s por Neven Jurkovre de Softmath, San Antonio Texas. Además, muestra el proceso de la solución del problema paso a paso y explica las operaciones realizadas, las cuales coadyuvan en la enseñanza – aprendizaje de la matemática básica en este nivel educativo.

3.4.7. Euler Math Euler Math es un software para el cálculo numérico y simbólico. Cuenta con su propio lenguaje matricial y un motor capaz de visualizar graficas en segunda y tercera dimensión, Euler Math se propone como una versión gratuita del software Matlab (Carlassare, 2011). 135

Tlamati, Número Especial 3 CICOM 2014 solución, paso a paso. El software se ha ido ajustando con el tiempo, dependiendo de las necesidades requeridas para el docente y estudiante, la licencia tiene costos, sin embargo, existe una versión austera dedicada a los estudiantes de libre acceso. Algebrator es uno de los programas potentes para la educación matemática que se haya desarrollado. Se abordan problemas matemáticos con cierto nivel de complejidad, puede mostrar el proceso detallado para cada respuesta, que actúa como un tutor automatizado para estudiantes de matemáticas en todos los niveles.

3.4.8. Geogebra Es un programa libre de Matemáticas para la educación básica, elaborado por Marcus Hohenwarter y un equipo internacional dedicado al desarrollo del software (Sarmiento, 2007). Tiene una interfaz dinámica respecto a: Aritmética, Geometría, Álgebra, Cálculo y Análisis, es un programa sencillo a nivel operativo como potente en cada una de sus versiones. 3.4.9. Matlab

Algebrator es una opción completa que funciona como tutorial, adecuado para la resolución de problemas de matemáticas de todos los niveles (Softmath, 1998-2014). Algebrator es un paquete para resolver problemas introducidos por el usuario en las siguientes áreas del Álgebra: • Simplificación de expresiones algebraicas, exponenciales, fracciones, cálculo de raíces y radicales. • Factorización. • Operaciones con números complejos. • Solución de ecuaciones lineales y cuadráticas. • Solución de sistemas de ecuaciones • Grafica funciones: lineales, cuadráticas y desigualdades • Simplifica logaritmos • Solución de problemas de Geometría Analítica, Trigonometría, Estadística y Álgebra Lineal. • Exporta en formato MathML para visualizarlos en un navegador Web.

Es un lenguaje de alto nivel con un entorno interactivo de cálculo numérico, la visualización y la programación. Mediante Matlab es posible analizar datos, desarrollar algoritmos y crear modelos o aplicaciones. El lenguaje, las herramientas y las funciones matemáticas incorporadas permiten explorar diferentes enfoques, (MathWorks , 2013). Matlab puede utilizar una gran variedad de aplicaciones, tales como procesamiento y comunicaciones. Procesamiento de figuras y video, sistemas de control, pruebas y medidas, finanzas computacionales y biología computacional. 3.5 Aplicación del Algebrator Después de haber analizado el software seleccionado que de alguna manera trata el trabajo referente al Álgebra, se está en condiciones de proponer el algoritmo que va a utilizarse en el trabajo para resolver una ecuación de segundo grado á través de la fórmula general. Considerando que el software Algebrator es el idóneo para los fines de la propuesta didáctica en la enseñanza del Álgebra a nivel Secundaria. A continuación se muestra en la figura 3.1 su interfaz gráfica o área de trabajo.

3.5.2. Implementación de Algebrator El uso del Algebrator es sencillo y agradable por su interfaz, simula estar trabajando en una hoja de papel. En la figura 3.2 se muestra el entorno grafico de este software educativo.

Figura 3.1 Entorno grafico de Algebrator(1ra. Versión)

Figura 3.2 Entorno grafico de Algebrator

3.5.1. Descripción

La propuesta es, que el docente de educación secundaria incluya esta herramienta en el método de enseñanza, diseñando estrategias didácticas y se recomienda sea utilizado de manera permanente en ciclos posteriores de manera cotidiana, propiciando un ambiente de trabajo adecuado, se pretende que el software sirva de apoyo al estudiante para reforzar sus conocimientos y logre una mejor comprensión. Los menús y opciones del software son muy visuales y legibles para trabajar. Algebrator cuenta con una serie de problemas matemáticos predeterminados que el usuario puede utilizar de apoyo.

Algebrator es un software para la enseñanza del Álgebra, tuvo sus comienzos en el año de 1986, el primer producto de software se llamó Edusym. Algebrator era vendido a instituciones educativas dado que fue creado para ese fin, no obstante en 1999 se decidió darle acceso a estudiantes por medio de Internet. En 2006 expande su entorno favoreciendo al estudiante en su proceso de aprendizaje del Álgebra. En 2010 lanzan una nueva versión que incluye resolución de problemas básicos de Estadística y Trigonometría, la novedad es su presentación de la

Específicamente en la educación secundaria el docente trabaja con una temática proporcionada por las autoridades (SEG),

136

Tlamati, Número Especial 3 CICOM 2014 lamentablemente siempre ha existido controversia al ser aceptados los contenidos diseñados. En general se exige cubrir los contenidos temáticos en su totalidad, estos son: divisibilidad; números racionales; ecuaciones de primer grado; sistema de ecuaciones con dos incógnitas: radicales: polinomios; sistema de ecuaciones de segundo grado: inecuaciones; combinatoria; fracciones algebraicas; función lineal y cuadrática; vectores en el plano; probabilidad; binomio de Newton; trigonometría; números complejos; circunferencia y elipse; sucesiones; progresiones aritméticas; progresiones geométricas; función exponencial; logaritmos; funciones y límites; derivadas; integrales; estadística unidimensional; estadística bidimensional y aplicación física.

El primer paso es escribir la ecuación que se va resolver, el software brinda la posibilidad de mostrar el proceso de solución con el primer botón “RESOLVER” o resuelve el proceso y llega al resultado final con el botón “RESOLVER TODO”. Otra de las ventajas es que el usuario puede visualizar la explicación en cualquier parte del proceso que no haya quedado claro, en este caso se mostrara la explicación de la resolución final de esta ecuación. 3.5,3. Proceso pasa a paso A continuación se muestra la aplicación de esta herramienta para los estudiantes de nivel secundaria, de modo que la solución del ejercicio será paso a paso.

La propuesta de utilizar Algebrator, se debe a que coincide en su mayoría lo que oferta en su plataforma con lo requerido por el docente para poder diseñar el contenido temático de una manera didáctica. El panel de botones es comprensible para cualquier usuario y la manera gráfica que expresa su función, nótese que este software cuenta con un apoyo técnico especializado que será de utilidad para el beneficiario con cualquier dificultad que pudiera tener.

Figura 3.4 Botón de explicación El proceso de solución paso a paso es muy sencillo en este software, los botones describen por si solos su función, se espera que el estudiante de matemáticas inicie sus nuevos cursos con mayor facilidad. Figura 3.3 Botones de apoyo técnico para el usuario Dado que no ha sido fácil para los estudiantes abordar el contenido de la matemática en cualquier nivel educativo de manera tradicional. Con el firme propósito de mejorar los resultados del aprendizaje en los estudiantes, se propone diseñar estrategias didácticas para calcular las raíces de una ecuación de segundo grado de la forma: Ax2 + Bx + C = 0 . Por lo que, se hace necesario implementar este software como herramienta tecnológica, dado que permite explicar el proceso en forma detallada la solución de un ejercicio. En las siguientes figuras 3.4 a 3.7 se muestra desarrollo y explicación que brinda el software al resolver la ecuación de segundo grado utilizando la fórmula x =

B ± B2 − 4 AC . 2A

Figura 3.5 Paso 2, Sustitución de coeficientes

Figura 3.4 Paso 1, botones de solución en Algebrator 137

Tlamati, Número Especial 3 CICOM 2014 Por tanto, es definitivo que el uso de la tecnología debe incidir en pocos años, en el aprendizaje de los estudiantes, lo cual es necesario empezar a cambiar las temáticas, contenidos y lo más importante la manera de trabajar con los escolares. CONCLUSIONES Después de haber analizado distintos tipos de software educativo se concluye en lo siguiente •

• Figura 3.5 Paso3, Las operaciones realizadas en la fórmula general.

Que existe una gran variedad de programas que pueden ser adaptados a cada área de enseñanza, grado escolar, tema, entre otros. Lo importante que debe tenerse claro que el software no hará todo el trabajo, simplemente es una herramienta de apoyo. Se debe de tener cuidado que el estudiantado no vaya a caer en la dependencia del software y pierda su habilidad mental y lógica.

REFERENCIAS [1] Carlassare, C. A. (2011). "Euler Math ToolBox". Software GPL para la enseñanza, l + D y [2] actividades profecionales en general" Universidad Tecnologica Nacional. [3] Garcia de Jalón Javier, I. R. (2005). "Aprende Matlab 7.0 como si estubieras en primero" . Madrid, Universidad Politecnica de Madrid, España. [4] GNU Octave. (2013). "GNU OCTAVE". Obtenido de http://www.gnu.org./software/octave/;2013 [5] Kutzler Bernhard, K.-V. V. (2003). "Introducción al DERIVE 6" Primera Edición. [6] MathWorks . (2013). [7] MathWorks. (2013). "Matlab el lenguaje de cálculo técnico". Obtenido de http://www.mathworks.es/products/matlab/;2013 [8] Maxima. (2013). "Maxima, un sistema de Álgebra computacional". Obtenido de [9] http://maxima.sourceforge.net/es/;2013 [10] Microsoft Corporation. (2011). Obtenido de www.microsoft.com/mathematics [11] Neven Jurkovre. (1999). http://www.softmath.com. [12] Sarmiento. (2007). "Tutorial de Geogebra"; Dirección Operativa de Incorporación de Tecnologías (InTec);2007. [13] Softmath. (1998-2014). Obtenido de www.softmath.com [14] Martínez, E.; Salonova8 S. (s.f). Clasificación de los métodos de enseñanza. Mayo 31 de 2011 del sitio web de la universidad de Huelva= http://www.uhu.es/cine.educación/didactica/0031clasificació nmetodos.htm [15] Moreina,M., (s.f). Teorías del aprendizaje y métodos de enseñanza con ordenadores. Julio 18 de 2011 de http://webpages.ull.es/users/manarea/internetdocencia/Apren diz-Medios.ppt

Figura 3.6 Paso4, simplificación de operaciones

Figura 3.7 Paso 5, Simplificación de la solución Después de haber mostrado un panorama descriptivo del software educativo respecto al uso del Álgebra en la educación básica, se pretende que el docente de estas áreas y niveles académicos tome la seriedad y considere que las TIC tienden a ser una herramienta de apoyo para influir de manera positiva en el método de trabajo.

138

Tlamati, Número Especial 3 CICOM 2014

Los MOOCs en los tiempos de LTE Héctor Julio Fúquene Ardila

Wilman Enrique Navarro Mejía

Universidad Distrital Francisco José de Caldas.

Universidad Distrital Francisco José de Caldas

[emailprotected] RESUMEN El presente artículo gira en torno a dos hechos que en la actualidad son de mucha acogida; uno en el ámbito académico y otro en el ámbito tecnológico. Como es bien sabido en el orden mundial hay numerosas iniciativas que pretenden la democratización del conocimiento a través de la implementación de Massive Open Online Course (MOOCs)[1]; los cuales permitirán que se genere una gran comunidad académica, la cual tendrá que interactuar con la utilización de plataformas tecnológicas de punta. En este sentido, surge la cuarta generación de telefonía celular (4G)[2] que flexibilizará la mencionada interacción gracias a que es una red de alta velocidad, esto, sumado a la movilidad que potenciará enormemente la consecución del conocimiento.

Keywords MOOC, LTE, 4G, Smartphone, knowledge, e-learning. 1. INTRODUCCIÓN Cuando Martin Cooper [3] utilizó por primera vez un teléfono inalámbrico en la década de los 70, además de la novedad de la movilidad, no se proyectaba un éxito y una masificación de esta tecnología como la que encontramos en la actualidad. En la presente década, la masificación no solo es de dispositivos utilizados para la comunicación de voz, sino que el uso de los llamados Smartphones y la emisión de la cuarta generación o LTE (Long Term Evolution), permitió el acceso móvil a altas velocidades y a todos los servicios que encontramos en un red fija con una calidad de servicio bastante aceptable. La utilización de la tecnología en el ámbito educativo ha ido en aumento, su uso en la creación de MEC (Material Educativo Computarizado) o en los AVAs (Ambientes Virtuales de Aprendizaje) es cada día más común. Con surgimiento del conectivismo[4], el ansia de democratizar el conocimiento entra en furor a nivel mundial; es así como por allá en el año 2008 surgieron los Cursos Masivos en Línea y Abiertos o más conocidos como MOOC de su sigla del inglés(Massive Open Online Course), con los cuales, todo aquel que posea una conexión a internet y quiera aprender algún tema específico, lo puede hacer; con los cursos masivos en línea con reconocimiento a nivel mundial y ofrecido por instituciones de reconocido prestigio, todos los sueños en materia de aprendizaje serán posibles. El presente artículo pretende hacer visible la utilización de los dispositivos inalámbricos como Smartphones (teléfonos inteligentes) y tabletas en el desarrollo de curso en línea, esto a propósito de la implementación que a nivel mundial se está haciendo de la 4G o cuarta generación de telefonía celular, también conocida como LTE. Para ello, se hará una breve reseña del 4G en especial su arquitectura, servicios y principales características [5]. Adicionalmente, se hará una descripción de lo que son los MOOCs y se analizarán algunos de sus aspectos desde la perspectiva de un estudiante.

Palabras clave MOOC, LTE, 4G, Smartphone, conocimiento, e-learning. ABSTRACT This article focuses on two events that today are very good reception; one in academic environment and the other in the technological field. Nowadays in the world there are many initiatives to the democratization of knowledge through the implementation of Massive Open Online Course (MOOCs); which will allow which is generated a great academic community which will have to interact with the use technological platforms of last one generation. In this sense, the fourth generation cellular (4G) arises will ease the mentioned interaction because it is a high-speed network, this, coupled with the mobility greatly enhance the attainment of knowledge. El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

139

Tlamati, Número Especial 3 CICOM 2014

Para entrar en materia contextualicemos un poco sobre las generalidades de una red celular.

Mayor y mejor gestión de la cobertura en la movilidad Se basa principalmente en tecnología IP logrando alto grado de convergencia entre redes móviles y redes fijas. Al funcionar las redes 4G con tecnología IP, implica conocer a fondo el funcionamiento de una red fija y el funcionamiento detallado de una red celular; aspectos que en el presente artículo no se abordaran por el momento.

1.1. ¿Qué es una red celular? Una red de telefonía celular es un conjunto de estaciones base conformada por células; cada una de las cuales permiten la reutilización de frecuencias; cada una de estas células cuenta con su propio transmisor y se accede a ella por medio de los dispositivos móviles. A continuación se presenta la arquitectura de una red celular de tercera generación en donde podemos apreciar la red de acceso constituida por los móviles, las estaciones base o BTS (Base Transceiver Station) y las estaciones base de control o BSC (Base Station Controller) y la red troncal o Core Network que interconecta a una red telefónica.

Gráfica No. 2. Arquitectura de una red LTE o de curta generación

1.2.2. Veamos ahora en qué consisten los MOOC (Massive Open Online Course) Podemos decir que un MOOC, es un curso en línea que se caracteriza principalmente por: Es una modalidad de educación abierta, cuya filosofía es la liberación del conocimiento para que este llegue a un público más amplio. Debe ser gratuito y de acceso a un público diverso. Son completamente en línea y asíncronos, lo que implica que no hay clases en vivo, facilitando con esto que el estudiante determine su horario según su conveniencia y disponibilidad. Utiliza recursos como el video, archivos PDF, interacción mediante foros y se puede realizar trabajo en conjunto a través de wikis. Generalmente se programan semanalmente y se proponen actividades para cada tema. Debe contar con una pedagogía adecuada y un asesoramiento permanente por parte de un equipo pedagógico en cabeza de un profesor titular. Los MOOC dan la posibilidad de aprender no solo de un profesor sino de los mismos compañeros. Su aplicación puede ser variada, puede ir desde un curso que enseñe a hacer algún arte o trabajo específico, un curso universitario sobre cualquier área. Debe estar orientado al aprendizaje y no a la enseñanza, lo que implica que todo debe girar en torno del estudiante y no del maestro.

Gráfica No. 1. Arquitectura de una red celular convencional.

1.2. ¿Qué es una red celular de cuarta generación o LTE? En la actualidad LTE o 4G son las siglas con las que se denomina la cuarta generación de tecnologías de telefonía móvil y que sustituye a la versión 3G y anteriores. Una de las principales características es su velocidad de transmisión de datos la cual es de 100 Mbit/s para movilidad alta y 1 Gbit/s para movilidad baja. En la siguiente gráfica encontramos la arquitectura de una red 4G, la cual podemos concebir con una arquitectura similar a las generaciones anteriores pero que se convierte en una red IP (Internet Protocol). 1.2.1. Características de una red 4G Transferencia de datos en movilidad de hasta 100 Mbps lo cual es considerado como alta velocidad de transmisión, con lo cual el número de aplicaciones se amplía considerablemente. 4G hace un mejor uso del espectro electromagnético, con lo cual se logra una mayor concurrencia por célula y mejor calidad de servicio o QoS.

1.2.3. Clases de MOOC 140

Tlamati, Número Especial 3 CICOM 2014

En la actualidad podemos identificar tres clases de MOOCs a saber: xMOOC: Se basan en cursos universitarios tradicionales que parecen reproducir la pedagogía de la tecnología del aula. De acurdo a expertos en el tema, son los que últimamente se están adoptando en el ámbito educativo[1]. cMOOC: Está postulados en las ideas de George Siemens sobre el aprendizaje conectivista. Se basan en que el aprendizaje se genera gracias al intercambio de información y la participación en una enseñanza conjunta y mediante la interacción intensa facilitada por la tecnología. MOOC centrados en las tareas: son un híbrido entre estos dos anteriores. En palabras de Martí , estos MOOC hacen hincapié en las habilidades de los alumnos en la resolución de determinados tipos de trabajo.[8],[9].

http://www.mooc.es/ http://www.mooc-list.com/ http://www.france-universite-numerique.fr/ 4.1. Universidades en Colombia que ofrecen MOOC Universidad del Tolima el curso que ofrece es en Matemáticas esenciales en los números reales y complejos a través de la plataforma Miriadax. Universidad Tecnológica de Pereira: el curso que ofrece es en Arte Latinoamericano con Énfasis en Colombia a través de la plataforma Miriadax. 5. LECCIONES APRENDIDAS CON LOS MOOCS Digamos que el primer contacto con plataformas virtuales de aprendizaje fue con la realización de un diplomado en manejo de la plataforma Moodle; posteriormente a través de la realización de un curso semi-presencial para el manejo electrónico de edición de revistas científicas utilizando la plataforma OJS (Open Journal System); posteriormente, hubo un contacto directo como “estudiante” o aprendiz en un curso abierto masivo en línea, que de manera casi que accidental llegó a través de las redes sociales. Hasta ese momento no tenía claro que era un MOOC, sin embargo la inscripción en su momento tenía dos motivaciones que sirvieron como aliciente para hacerlo. Por una parte una de las áreas de interés son las redes de datos y las telecomunicaciones y por otra la realización de un curso de francés, en el cual me había interesado desde mi educación media; la reunión de estas temáticas me hizo interesar en un aviso publicado por la embajada de Francia en redes sociales; el curso permitiría realizar un acercamiento (“o aprender”) de una temática de la cual desconocía su parte técnica y funcional, y por otro, propiciaba un ambiente adecuado que me obligaría principalmente a leer y a escuchar todo un curso en francés. Teniendo mis obligaciones laborales principalmente en el horario de la mañana y el curso de francés en la noche, tuve que dedicar principalmente los fines de semana (sábado en la tarde y el domingo) para ponerme al día con las obligaciones adquiridas con el curso en “Introduction aux réseaux mobiles” [12], Introducción a las redes móviles con el Institut Mines-Télécom. Dicho curso dio inicio el 18 de febrero y estaba distribuido en ocho semanas; cada una de las cuales contaban con actividades tales como la lectura de un material de referencia que publicaban en la plataforma en formato PDF, unos videos en donde los profesores desarrollaban la temática de la semana, unas evaluaciones a manera de quiz, y la posibilidad de interactuar con los docentes y con los compañeros de todo el mundo a través de un foro. Semanalmente se presentaba una evaluación que oscilaba entre las 12 a 20 preguntas, y la presentación de un examen final, que se presentó al concluir la octava semana. El MOOC contaba también con una sección wiki

2. ESTRUCTURA DE UN MOOC Los cursos masivos abiertos y en línea deben contar con una estructura que facilite y ubique al estudiante en la temática y metodología utilizada; algunos apartes pueden ser: • Título del curso • Emails de los administradores/profesores del curso • Descripción del curso • Imagen o vídeo de bienvenida. • Idioma del curso • Fecha de inicio del curso: fecha en la que el curso se abrirá al público • Duración: si el curso tiene prevista una fecha de cierre. Suele medirse en semanas. • Dirección del foro • Áreas de conocimiento del curso 3. MOOCS Y MOVILIDAD La cuarta generación de telefonía celular, gracias a que funciona con tecnología IP y alcanza velocidades que no tienen nada que envidiar a una red fija, la cual permite acceder a servicios como video de alta definición, redes sociales, correo electrónico y todos los elementos necesarios para cumplir con los requerimientos académicos expuestos en cualquier curso masivo abierto y en línea, esto permitirá, que el estudiante adelante sus obligaciones sin importar la ubicación geográfica en la que se encuentre o la hora que determine utilizar para estudiar.

4. SITIOS MOOC EN EL MUNDO Los MOOCs (Massive Open Online Courses) aparecieron en 2008 y los sitios o plataformas de mayor visibilidad en el mundo son: https://www.miriadax.net/ 141

Tlamati, Número Especial 3 CICOM 2014

(espacio para la elaboración colectiva de documentos) y se podía visualizar la progresión en las tareas adelantadas. A pesar de que los resultados finales obtenido fueron de un 73%, la gran cantidad de trabajo hizo que la apropiación de algunos temas no fuera el deseado. La experiencia con el soporte y apoyo por parte del equipo pedagógico, se puede decir que fue excelente, que el nivel de exigencia fue alto y que fue una experiencia enriquecedora y productiva para la vida como profesional y como docente.

proyecto contempla el cubrimiento del servicio en la totalidad de municipios del país.[7] En cuanto a los MOOCs, el panorama todavía es desalentador, en la actualidad solo encontramos dos universidades vinculadas a las plataformas que ofrecen este tipo de curso; como quien dice hay aún mucho por hacer en este ámbito. 8. CONCLUSIONES La democratización del conocimiento solo es posible si concientizamos a las nuevas generaciones que este se encuentra al alcance de un clic, que es gratuito y que una vez adquirido es de nuestra propiedad y podemos utilizarlo o multiplicarlo en la forma que determinemos. La educación ha cambiado desde sus principios hasta los tiempos de hoy; a medida que esta ha cambiado sus métodos de apoyo y soporte también: esto ha llevado a que a nivel mundial toda la gente se beneficie, por lo tanto el futuro de la educación probablemente serán los MOOCs, debido a su constante evolución y su fácil acceso, utilizando como intermediario la tecnología la cual es un elemento muy importante para la democratización de la educación y por ende del conocimiento. En un futuro, con la utilización y masificación de este tipo de capacitación, implicará que cada persona estudie únicamente aquello que es de su interés, será posible ser experto en un arte particular sin tener que zigzaguear con el conocimiento como lo encontramos en la educación formal. Este tipo de iniciativas probablemente seducirá a todas aquellas personas que siente aversión por el encierro o confinamiento y sometimiento del que se es objeto en la educación tradicional; adiós a la rigidez a la hora de aprender. El docente tendrá que contar cada día con más habilidades, no será suficiente con dominar un tema; se suma la necesidad de manejar la tecnología y tener la capacidad de producir contenidos para esta. La validación de conocimiento (evaluación) tendrá que cambiar, o al menos complementarse con nuevos métodos y técnicas, la creatividad y originalidad serán preponderantes. La motivación debe ser el principal ingrediente para contrarrestar la deserción de estudiantes, una persona aprende sólo lo que le interesa.

6. EVALUACIÓN DEL MOOC “INTRODUCTION AUX RÉSEAUX MOBILES” Una vez finalizado el curso se solicitó el diligenciamiento de un formulario de evaluación de su desarrollo; algunos de los puntos a evaluar fueron los siguientes: • Constancia en el seguimiento del curso y entrega de tareas. • Ritmo de trabajo, adquisición de conocimientos y posibles dificultades encontradas en algunos temas. • Nivel de conocimientos en matemáticas y dedicación en horas a la semana al curso. • Método de trabajo y recursos utilizados (videos, tabletas, archivos, etc) • Uso de espacios colaborativos y apoyo pedagógico (foro, wiki, etc) • Nivel satisfacción y aspiraciones futuras sobre la temática abordada 6.1. Algunas estadísticas Total inscritos 455, de los cuales 405 eran hombres y 50 mujeres • Edad de los estudiantes. El mayor porcentaje de estudiantes estaban entre los 20 a 30 años, algunos pocos por debajo de 20 años y un buen número de estudiantes eran mayores de 60 años • El grado de escolaridad predominante fue el de maestría y predominó el número de estudiantes que eran debutantes en el tema. 7. PERSPECTIVAS EN COLOMBIA. Colombia en los últimos años se ha caracterizado por dar un énfasis especial a las tecnologías de la información y las telecomunicaciones conocidas como TICs. En el caso de la implementación del 4G se ha asignado un alto porcentaje del espectro a diferentes operadores[7]; con lo cual se garantiza que haya competencia y que el usuario final tenga opciones para la adquisición del servicio. Adicionalmente, el ministerio de las TICs (Tecnologías de la Información y las Comunicaciones), logró que en la venta del espectro se comprometiera a los operadores a donar tablets para escuelas públicas; fue así como se obtuvieron 556.374 tablets para estudiantes y profesores que deberán entregarse en los próximos 3 años. El

9. REFERENCIAS [1] http://www.centrocp.com/los-mooc-origenes-historiay-tipos/ [2] http://fr.wikipedia.org/wiki/LTE_(r%C3%A9seaux_m obiles) [3] http://es.wikipedia.org/wiki/Martin_Cooper [4] http://es.wikipedia.org/wiki/Conectivismo

142

Tlamati, Número Especial 3 CICOM 2014

[13] http://en.wikipedia.org/wiki/David_A._Wiley [14] http://apps.ucab.edu.ve/medialab/tag/mooc/ [15] http://www.bdpadetroit.org/portal/index.php/comittees/high-schoolcomputer-competition-hscc/29-education/57-moocstop-10-sites-for-free-education-with-eliteuniversities.html [16] http://www.france-universite-numerique.fr/ [17]http://www.hybridpedagogy.com/journal/moocproblem/ [18]http://rolinmoe.org/ [19]http://allmoocs.wordpress.com/ [20]http://es.scribd.com/doc/231075460/The-EvolutionImpact-of-the-Massive-Open-Online-Course

[5] Lagrange, Xavier. Les réseaux radiomobiles. Edition Hermès. 2000 [6]http://busco-mooc.blogspot.com/ [7]http://www.mintic.gov.co/portal/604/w3-channel.html [8] http://es.wikipedia.org/wiki/MOOC [9] http://www.xarxatic.com/tipos-de-moocs/ [10] http://lisahistory.net/wordpress/2012/08/three-kindsof-moocs/ [11] http://uaedf.ua.es/es/documentos/guias/guia-dediseno-mooc.pdf [12] http://dslab.es/formacion-elearning/cursos-moocgratis-de-la-uned

143

Tlamati, Número Especial 3 CICOM 2014

Migración de Bases de Datos SQL a NoSQL Angeles Cruz Manjarrez Antaño

José Mario Martínez Castro

René E. Cuevas Valencia

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero. (01 747) 491 22 27

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero.

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero.

angeles.cruzmanjarrez@gmail. com

[emailprotected]

[emailprotected]

cabo la migración, entre otros.

RESUMEN

La capacidad de almacenamiento del servidor de datos, nuevas necesidades para el software así como los nuevos requerimientos de los usuarios finales, sin lugar a dudas, llevan a pensar seriamente en mover la información de una estructura a otra. Dadas las nuevas necesidades, la cantidad de información que ingresa día a día a la base de datos, aunado a la información ya existente proporciona una idea de lo que se necesita para el futuro tomando en cuenta el crecimiento de los mismos, la variación en la información y el tipo de datos a almacenar.

Desde el momento en que los humanos han requerido almacenar datos que lleven a la obtención de información oportuna y fiable también se ha buscado la manera más eficiente de manipular dichos datos. Con el tiempo la creciente cantidad de información que se intenta manejar supera por mucho la infraestructura existente, esto es, se ha llegado a la necesidad de buscar soluciones que permitan almacenar cada vez más información incluso de la que se podría imaginar. El tema propuesto viene de la necesidad explícita de migrar datos de una plataforma determinada a otra que permita mayor flexibilidad y manipulación de datos más extensos y variados.

Por los puntos expuestos, este trabajo de investigación pretende analizar los puntos a considerar en el proceso de migración de datos entre modelado relacional y el NoSQL sin dejar de lado las necesidades que orillan a este cambio y algunas de las opciones que pueden considerarse.

Palabras Clave Migración, Bases de Datos, SQL, NoSQL, CSV, JSON, MongoDB.

2. PROCESO DE MIGRACIÓN DE DATOS

1. INTRODUCCIÓN

La migración de datos consiste en la transferencia de materiales digitales de un origen de datos a otro. Se trata de una consideración clave para cualquier implementación, actualización o consolidación de un sistema informático.

El almacenamiento de datos en algún momento se enfrenta a la necesidad inerte de realizar migración. La migración es un proceso un tanto complicado considerando los puntos que deben tomarse en cuenta al momento de llevarla a cabo, tales como la fuente de datos y el destino de los mismos, la estructura existente y la movilidad hacia una nueva, el análisis de la persistencia y depuración de los datos, las plataformas entre las que se llevará a

Existen diversos motivos para realizar una migración, tales como la preservación o difusión de los contenidos, mejoras en el funcionamiento, cumplir con nuevos requerimientos de usuario o de software, la interoperabilidad, la actualización de versiones, la estandarización de la tecnología, la reducción de costos al optar por un software libre, el aumento en el volumen de datos, nuevos procesos de negocio o mejoras en la seguridad o el control de la información, entre otros escenarios posibles. [3]

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

El proceso de migración requiere de pasos específicos para llevarse a cabo, tales como, observación de la fuente de datos y el destino de los mismos, de los formatos en los que se presenta la información para identificar las conversiones para adecuarse a las nuevas necesidades. Se necesita conocer la flexibilidad para adaptar la nueva estructura de modo que se preserven los datos realmente necesarios, lo que llevará más adelante a la depuración en caso de ser necesario. Realizar pruebas previas a la migración definitiva servirá de mucha ayuda a la persona encargada de esta

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de GuerreroACM

144

Tlamati, Número Especial 3 CICOM 2014 tarea para poder identificar las excepciones que no hayan sido previstas. Por último la ejecución de la migración en su totalidad.

2.1

asegurarse de que la información que se ha migrado es consistente y fiable, en caso de no ser así puede requerirse corrección de errores.

Técnicas de migración de base de datos

3. BASES DE DATOS NoSQL

Al momento de plantear la necesidad de migrar datos lo primero en lo que se puede pensar es, qué, cómo y el tiempo que llevará realizar esta tarea. La utilización de técnicas permite realizar un trabajo ordenado, conocer las estructuras de las bases de datos involucradas, familiarizarse con los datos y su distribución, considerar aquellos datos que requerirán atención especial, aquellos que en adelante no serán indispensables, entre otros. A continuación se listan algunos de los pasos a tomar en cuenta antes, durante y posterior a la migración. •

Planificación. Lo más importante al migrar una base de datos es llevar a cabo un proceso de planificación y análisis del trabajo. Debe considerarse el análisis de la estructura de la base de datos origen y la planificación.

Contador de registros. Se debe hacer un conteo de los registros existentes, los registros migrados exitosamente y conservar los registros que no se logren migrar, esto dará a los usuarios la certeza de que su información es coherente y no ha sufrido pérdidas. En este punto puede tomarse en cuanta la opinión de los administradores de base de datos para tomar acciones correctivas acerca de los datos que no hayan podido migrarse.

Algunos ejemplos de base de datos NoSQL:

Restricciones y trigers. Antes de iniciar la migración de la BD (Base de Datos), es recomendable deshabilitar los Trigers y/o restricciones que nos puedan generar error al momento que el SMBD (Sistema Manejador de Base de Datos) ejecute el proceso de escritura de los datos. Codificación de caracteres. Cuando el copiado se realiza de forma automática, es necesario identificar la codificación de caracteres que la base de datos destino espera, pues así evitaremos el reemplazo automático de caracteres o en su caso, pérdida de los mismos.

Pruebas. Toda buena implementación requiere una fase de pruebas, podría pensarse en presentación de los reportes utilizados por los usuarios de la aplicación para tener la certeza de que no existirá ausencia de información al momento de poner en marcha la migración. Este paso da la oportunidad de observar y corregir las excepciones no controladas.

La propuesta de bases de datos NoSQL no es excluyente de las SQL, por el contrario podrían incluso utilizarse como complemento una de la otra. Los años de uso e implementación de bases de datos relacionales ha dado como resultado tener una mente predispuesta a generar sentencias SQL que permitan ingresar y manipular datos así como generar reportes informativos casi inconscientemente, lo que lleva en algún momento a poner cierta resistencia al uso de este nuevo paradigma, sin embargo esto no debe ser una limitante puesto que existen bases de datos como MongoDB o Neo4j que son fáciles de aprender y son libres, lo que los hace aún más interesantes por el hecho del soporte, la basta documentación y las redes de información que propician sus usuarios.

Mapeador de tipos de datos. Algunas plataformas no soportan algunos tipos de datos, así que es necesario planificar el mapeo de los campos en la nueva base de datos.

El término NoSQL (Not Only SQL), se refiere a una multitud de bases de datos que intentan solventar las limitaciones que el modelo relacional se encuentra en entornos de almacenamiento masivo de datos, y concretamente en las que tiene en el momento de escalar, donde es necesario disponer de servidores muy potentes y de balanceo de carga. [4]

Bases de datos orientadas a documentos. Cassandra, HBase utilizada por Facebook, MongoDB y CouchDB, Google’s BigTable

Bases de datos orientadas a grafos. Neo4j.

Bases de datos orientadas a objetos. Db4Objects de Versant y Objectivity/DB.

3.1 Características El teorema CAP o teorema Brewer, dice que en sistemas distribuidos es imposible garantizar a la vez: consistencia, disponibilidad y tolerancia a particiones (ConsistencyAvailability-Partition Tolerance). A continuación se describen las características:

Implementación. Como su nombre lo dice, es la fase que implica poner en marcha la migración física de los datos. Según los requerimientos debe identificarse el momento apropiado y el tiempo estimado que puede tardarse en llevarse a cabo. Existen sistemas que pueden ser pausados por minutos, horas e incluso días enteros, por el contrario existen otros tantos que no pueden detener su marcha pues representaría perdidas económicas para la empresa que lo requiera. Monitoreo. Una vez finalizada la fase de implementación es recomendable realizar observaciones muy de cerca para

Consistencia: al realizar una consulta o inserción siempre se tiene que recibir la misma información, con independencia del nodo o servidor que procese la petición

Disponibilidad: que todos los clientes puedan leer y escribir, aunque se haya caído uno de los nodos.

Tolerancia a particiones: a veces traducido como tolerancia a fallos. Es una traducción que no me gusta, ya que se confunde con el punto anterior. Los sistemas distribuidos pueden estar divididos en particiones (generalmente de forma geográfica). Así que esta condición implica, que el sistema tiene que seguir funcionando aunque existan fallos o caídas parciales que dividan el sistema.

Para ser escalables y distribuidas, las bases de datos NoSQL, siguen distintos métodos, por lo que no todas cumplen los mismos puntos del teorema CAP. 145

Tlamati, Número Especial 3 CICOM 2014

AP, garantizan disponibilidad y tolerancia a particiones, pero no la consistencia, al menos de forma total. Algunas de ellas consiguen una consistencia parcial a través de la replicación y la verificación.

CP, garantizan consistencia y tolerancia a particiones. Para lograr la consistencia y replicar los datos a través de los nodos, sacrifican la disponibilidad.

CA, garantizan consistencia y disponibilidad, pero tienen problemas con la tolerancia a particiones. Este problema lo suelen gestionar replicando los datos. [5]

Orientadas a grafos, este tipo de bases de datos almacena la información en forma de grafo, de forma que las relaciones entre nodos pueden tener atributos. Son recomendables para sistemas que se puedan representar en forma de red de manera sencilla.

Orientadas a columnas, almacenan toda la información en columnas de esta forma las lecturas son muy rápidas, pero se sacrifica mucho tiempo para las escrituras, por lo que no son recomendables a no ser que el número de lecturas sea muy superior al número de escrituras.

Clave-valor, es la forma más usada, su uso es muy parecido al de una tabla de Hash, en la que se almacena una clave, y un valor. El valor se suele almacenar como un tipo "BLOB" de esta forma el sistema es independiente al tipo de datos que se quiere almacenar. Su principales características son:

En la Figura 1, se observa cómo se reparten algunas de las bases de datos según las condiciones que cumplen del teorema CAP.

o

Son muy rápidas para las operaciones de lectura/escritura.

o

Fácilmente escalables particionando la clave, de esta forma se pueden almacenar las distintas claves en distintos servidores dependiendo de su valor inicial.

3.3 Los que han migrado a NoSQL Por lo anterior, no debería sorprender el hecho de que compañías y grandes marcas han migrado su información de base de datos relacionales a NoSQL, el motivo es: el crecimiento acelerado de la información que almacenan, la concurrencia de usuarios, las transacciones que se realizan cada segundo, la necesidad de obtener y mostrar información de manera rápida y confiable, todo esto encaminado a la seriedad que proyectan hacia sus usuarios. Entre las marcas más conocidas se puede observar a:

Figura 1. Teorema de CAP.

MongoDB: CISCO, FourSquare, MetLife, MTv.

Cassandra: Facebook, Twitter, Spotify, Instragram, GE, Disney, Adobe, ebay.

BigTable: Google.

Dynamo: Amazon.

Es necesario tener en cuenta, que esta clasificación no es definitiva, ya que algunos de estos sistemas NoSQL pueden configurarse para cambiar su comportamiento.

Project Voldemort: LinkedIn.

Entre muchos otros.

Por ejemplo MongoDB es CP por defecto. Pero también se puede configurar el nivel de consistencia, eligiendo el número de nodos a los que se replicarán los datos6.

4. MIGRACIÓN DE SQL A NoSQL Pueden existir infinidad de motivos por los cuales se desea migrar datos, entre los más comunes se encuentran la necesidad de mover los datos de un origen a otro dada por el cambio de plataforma, las dificultades que representa el trabajar con grandes cantidades de información, la estructura actual sobre la que se soportan los datos no es lo suficientemente extensa, la infraestructura con que cuenta la organización para almacenar su información no es suficiente, inclusión de campos para almacenamiento de tipos de datos no soportados por la estructura de base de datos actual, nuevos requerimientos del software que alimenta de datos a la base de datos, nuevas necesidades de los usuarios finales, y así un sin fin

3.2 Clasificación Una de las clasificaciones más significativas de los sistemas de almacenamiento NoSQL es la basada en el tipo de estructura de datos o el esquema bajo el cual se almacenan los datos. •

Microsoft,

Basadas en documentos, almacenan a información como si fueran documentos. Por lo general utilizan formato JSON o XML. El funcionamiento es muy similar a las clave-valor, sólo que en este caso el atributo clave es el nombre que se le pone al fichero. 146

Tlamati, Número Especial 3 CICOM 2014 de argumentos totalmente válidos para llevar a cabo esta fase llámese de mantenimiento o actualización.

Como se ha mencionado, entre las ventajas de los sistemas not only SQL se encuentran: la velocidad de inserción, actualización y consulta de datos, en la figura 3 se tiene una tabla comparativa del tiempo aproximado de pruebas comparativas realizadas entre MySQL y MongoDB.

Como en toda migración, hay puntos importantes que necesitan analizarse, entre los cuales se pueden encontrar: el volumen de la información a migrar, los tipos de datos a migrar, se debe también conocer la estructura de la base de datos actual con el fin de empatar campos y hacer las conversiones correspondientes antes de realizar alguna acción que pueda provocar pérdida de datos o que la migración simplemente no concluir de manera correcta por la generación de errores incontrolados. Los manejadores de base de datos así como el lenguaje que utilizan son pieza clave en este proceso. Para no quedar fuera de contexto se debe conocer a lo que se enfrenta. Las sentencias SQL a las que se están acostumbrados quedaran un poco de lado, sin embargo citamos algunas comparativas para estar familiarizados con el tema, ver tabla 1.

Figura 3. Comparativa de tiempos, MySQL y MongoDB.

Tabla 1. Tabla de términos y conceptos MongoDB SQL database table

Términos y Conceptos MongoDB database Collection

row

Document

column

Field

Index

index

join

-

primary key

primary key (_id)

5. ORIGEN Y DESTINO Fuentes de Datos: CSV, XML, JSON, MySql, Oracle, etc Colección de datos Objetivo: JSON Una vez que se tenga claro dónde se está, hacia dónde se quiere ir y, sabiendo que los datos son la base de toda información requerida para la toma de decisiones, no se pasará de una estructura a otra por simple vanidad, si bien las bases de datos NoSQL ofrecen gran capacidad de escalabilidad, espacio para almacenamiento, flexibilidad, entre otras, no se debe dejar de lado las posibles necesidades de tener una estructura fija que permita realizar la manipulación segura consciente de la información. La figura 4 es una representación gráfica del almacenamiento en bases de datos relacionales comparado con las bases de datos NoSQL de tipo basadas en documentos.

Figura 4. Modelos relacional vs orientado a documentos Cada registro en una base de datos relacional se ajusta a un esquema - con un número fijo de campos (columnas) cada uno con un propósito especificado y tipo de datos. La ventaja es que hay menos datos duplicados en la base de datos. La desventaja es

Figura 2. Sentencias básicas lenguaje de consultas MongoDB.

147

Tlamati, Número Especial 3 CICOM 2014 que un cambio en el esquema significa realizar varias declaraciones "alter table”.

siempre lo más nuevo es la mejor opción, todo dependerá del tipo y volumen de información que se pretenda guardar.

Con las bases de datos de documentos en el otro lado, cada documento puede tener una estructura completamente diferente de otros documentos. No se requiere ninguna gestión adicional en la base de datos para controlar los cambios de esquemas de documento2.

Como se explicó ya en párrafos anteriores, la migración no es una tarea fácil, no es una decisión que se tome a la ligera, se deben considerar puntos esenciales, como el origen y destino de datos, mapeo de campos, conocer las diversas opciones que se tienen y los beneficios que ofrecen las nuevas estructuras así las facilidades que ofrecen para dar este gran salto.

Una vez dicho lo anterior se centrar la atención en MongoDB, utilizando el paradigma basado en objetos, es una de las base de datos no relacionales más famosas.

Esta investigación pretende proporcionar una idea clara de lo que se debe considerar antes y durante la migración para hacer de esto una tarea más sencilla y fácil, tomando en cuenta un proceso específico y herramientas adecuadas para no abalanzarse a realizar un cambio que pudiera no ser necesario tomando considerando los beneficios que se obtendrían en relación con el costo que pudiera implicar.

MongoDB guarda estructuras de datos en documentos tipo JSON con un esquema dinámico (MongoDB llama ese formato BSON), haciendo que la integración de los datos en ciertas aplicaciones sea más fácil y rápida. Entonces, teniendo una colección de datos CSV o XML pueden convertirse al formato JSON, a partir de este último se puede generar las sentencias correspondientes para realizar inserciones de datos en nuestro nuevo entorno.

7. REFERENCIAS [1] Agile and Scalable, MongoDB. (May. 2014) , http://www.mongodb.org/

Como ejemplo se puede citar una herramienta ubicada en la red con la siguiente dirección, esta puede convertir texto en formato CSV que bien se puede obtener realizando una consulta a la base de datos de producción y guardando los resultados con extensión .csv para después convertirla al formato JSON más amigable con MongoDB. [2]

[2] CSV to JSON Converter, JSFIDDLE. (May. 2014), http://jsfiddle.net/sturtevant/AZFvQ/ [3] Migración de datos, Wikipedia. (Abril 2014). http://es.wikipedia.org/wiki/Migraci%C3%B3n_de_datos [4] NoSQL. Conocimiento con todos y para todos EcuRed. (May. 2014), http://www.ecured.cu/index.php/NoSQL.

Este tipo de herramientas y/o programación ya sea en Phyton o JavaScript ayudarán a generar una mejor interfaz de migración de datos.

[5] NoSQL: clasificación de las bases de datos según el teorema CAP, GENBETA:dev. (Enero 2014). http://www.genbetadev.com/bases-de-datos/nosqlclasificacion-de-las-bases-de-datos-segun-el-teorema-cap

6. CONCLUSIONES

[6] Not Only SQL, NoSQL By Sutthinun Peauut. (May. 2014), http://www.kana45.com/Present/NoSQL.htm#/

Regularmente lo nuevo es deslumbrante y el caso de bases de datos y su estructura no es una excepción, por el contrario, cuando se escucha hablar del modelado NoSQL se piensa en migrar, en tener más flexibilidad y estar a la vanguardia en aspectos de información y su almacenamiento; pues bien, en este caso no

[7] Transitioning from RDBMS to NoSQL. Interview with Couchbase’s Dipti Borkar, InfoQ. (May. 2014), http://www.infoq.com/articles/Transition-RDBMS-NoSQL

148

Tlamati, Número Especial 3 CICOM 2014

Implementación para control del robot Ludovico a través de dispositivos móviles Android® y microcontrolador Arduino® Giovanni Francis Sumano Arias

Omar Lucio Cabrera Jiménez

Luis Fernando Castro Careaga

Universidad Autónoma Metropolitana Iztapalapa Av. San Rafael Atlixco No. 186, Colonia Vicentina, Iztapalapa, México D.F. C.P. 09340 Teléfono: 011521 5539022478

Universidad Autónoma Metropolitana Iztapalapa Av. San Rafael Atlixco No. 186, Colonia Vicentina, Iztapalapa, México D.F. C.P. 09340 Teléfono: 011521 5591951118

Universidad Autónoma Metropolitana Iztapalapa Av. San Rafael Atlixco No. 186, Colonia Vicentina, Iztapalapa, México D.F. C.P. 09340

green.northern.light@gmai l.com

[emailprotected]

[emailprotected]

robot a través de dispositivos móviles.

RESUMEN El desarrollo tecnológico ha propiciado la convergencia de distintas tecnologías en un número cada vez menor de dispositivos, las tabletas y teléfonos móviles actuales presentan funcionalidad que hace sólo unos cuantos años estaba confinada a las computadoras personales.

Palabras clave Android, Java, Arduino, Robótica, Wireless, Sockets, Dispositivo Móvil.

1. INTRODUCCION

La manera en que los usuarios interactúan con los dispositivos también ha evolucionado, prevalecen las pantallas táctiles lo que ha conllevado cambios en los paradigmas del diseño y programación de aplicaciones. La Universidad Autónoma Metropolitana ha desarrollado a lo largo del tiempo diferentes proyectos de robótica, en particular se ha desarrollado desde hace varios años un robot a base de material de reciclaje llamado Ludovico, el cual se encuentra en un proceso de constante actualización tanto para mejorar su apariencia externa como para expandir su funcionalidad, este reporte describe las generalidades de una implementación en Android a base del esquema clienteservidor haciendo uso de sockets para posibilitar el manejo del

El robot Ludovico de la Universidad Autónoma Metropolitana Iztapalapa tiene ya un historial significativo de desarrollo, implementaciones previas han permitido controlarlo con el uso de ordenadores enviando instrucciones mediante terminales, con el uso del mando a distancia para consolas de videojuegos XBOX360 Controller® y con el uso de interfaces gráficas instaladas en ordenadores portátiles. La Universidad Autónoma Metropolitana promueve la investigación, el contacto con nuevas tecnologías y su desarrollo por parte del alumnado, lo cual ha motivado a la creación de una implementación para el control del robot a través de dispositivos móviles y una de las plataformas más extendidas para la gestión de estos: el SO Android. La implementación debía además contar con las siguientes características: facilidad de manejo, posibilidad de grabación y reproducción de secuencias y facilidad de instalación.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

2. DESCRIPCIÓN FUNCIONAL El desarrollo de la implementación se ha llevado a cabo mediante el esquema cliente-servidor.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de GuerreroACM

149

Tlamati, Número Especial 3 CICOM 2014 diferencia entre las instrucciones que recibe en tiempo real y las que provienen de una secuencia en reproducción. La posibilidad de grabar y reproducir secuencias brinda la impresión de que el robot presenta cierto grado de autonomía.

3. AMBIENTE DE DESARROLLO La implementación fue desarrollada en el IDE eclipse haciendo uso del plugin ADT y del plugin WindowsBuilder. ADT(Android Development Tools) permite desarrollar aplicaciones para android y “lanzar” dispositivos virtuales android como teléfonos móviles o tabletas. WindowsBuilder permite la creación de GUI’s arrastrando elementos a un formulario, ha sido utilizado para la creación de la interfaz gráfica del servidor.

4. DESARROLLO Dado la naturaleza y las limitaciones del presente documento no se presenta el código fuente de la implementación, sin embargo el código será puesto a disposición de la comunidad estudiantil y docente dentro de las próximas semanas junto con el reporte completo del desarrollo.

Figura 1. Robot Ludovico 2.0 de la Universidad Autónoma Metropolitana Iztapalapa, su altura aproximada es de 1.60 metros y posee un peso aproximado de 70 Kg. El programa cliente se instala en un dispositivo móvil, presenta la interfaz para el control del robot, cuando el usuario interactúa con esta última las instrucciones correspondientes son enviadas al programa servidor el cual se encuentra instalado en un ordenador portátil. El ordenador portátil se introduce en el robot y se comunica (conectado directamente) con un microcontrolador arduino duemilanove que envía las señales para el control de los motores.

4.1 Programa cliente El programa cliente ha sido desarrollado en el IDE eclipse como un proyecto tipo “Android aplication proyect”. Toda aplicación en Android requiere el archivo AndroidManifest.xml, el cual presenta información esencial de la aplicación al sistema operativo Android (información que el sistema debe conocer antes de poder ejecutar el código de la aplicación). La interfaz gráfica de un programa en android está definida en un archivo xml (activity_main.xml en este caso).

Se utiliza un ruteador inalámbrico para establecer una conexión entre el dispositivo móvil y el ordenador portátil y así posibilitar el envío de información entre ellos. Además de lo anterior se conectan al ordenador portátil un par de bocinas.

Las clases que componen el programa son: MainActivity, LudoClient y Conexión. La figura 3 muestra el diagrama de dominio con los métodos y atributos principales de las clases.

La figura 2 presenta un diagrama de la implementación. El programa cliente presenta la posibilidad de grabar secuencias y posteriormente reproducirlas, para el programa servidor no existe

150

Tlamati, Número Especial 3 CICOM 2014

Figura 2. Diagrama de la implementación para el control del Robot Ludovico haciendo uso de dispositivos móviles Android y un microcontrolador Arduino, el dispositivo móvil está en este caso representado por una tableta. Se requiere de una placa que amplifique las señales del microcontrolador antes de que este sea conectado a los motores. Todos los componentes del diagrama son introducidos al robot a excepción de la tableta, naturalmente.

Figura 3 Diagrama de clases con los métodos y atributos principales de la clases del programa cliente.

reiniciada al cambiar el dispositivo móvil entre las posiciones landscape y portrait*** (comportamiento por default)

4.1.1 Android Manifest.xml Es la base para cualquier aplicación Android, se encuentra en la raíz de directorios de cualquier proyecto. Dentro de este archivo se declaran los elementos de la aplicación (actividades, servicios, etc.) y la manera en que ellos interactúan entre sí y con el sistema. En este caso particular fue necesario agregar instrucciones para que la aplicación pueda hacer uso de la conexión inalámbrica*, pueda acceder a la memoria externa** y para evitar que sea

151

Tlamati, Número Especial 3 CICOM 2014

! "

El código de la clase se genera de manera automática, al tiempo que se arrastran componentes para la creación del GUI en la vista de “Design” de la clase.

#

$% &' '( ) ' !1 %

4.2.4 Clase ConexionSerial *+, *

- ).

/- ).

/

Es utilizada para establecer comunicación con el microcontrolador y hace uso de la librería estática RXTXcomm.jar y las librerías dinámicas librxtxSerial.so y librxtxParallel.so para enviar y recibir información a través del puerto USB.

/ '

4.1.2 activity_main.xml 4.2.5 Clase LudoServer

El diseño de la interfaz se llevó a cabo en primer lugar con la intención de instalar el programa cliente en una tableta con un display de 10.1”, los elementos de la interfaz fueron agrupados en layouts (a su vez agrupados dentro de un RelativeLayout) con la intención de que pudiera ser fácilmente modificada para la instalación del cliente en otros dispositivos. Una segunda versión de la interfaz fue posteriormente optimizada para teléfonos móviles de pantallas de 4” (ver figuras 4 y 5).

Clase que hace uso de sockets para permitir la conexión del programa cliente a un puerto específico a través de una dirección IP y el número de puerto.

4.1.3 Clase MainActivity Es la clase principal del programa cliente, gestiona la interacción entre el usuario y la interfaz. A través de la clase interna Conexión, MainActivity crea un objeto LudoClient en un hilo paralelo para conectarse al servidor y enviar datos (caracteres) a este de acuerdo a las acciones solicitadas por el usuario.

4.2 Programa servidor (ordenador portátil) El programa servidor consta de las clases Principal, VentanaPrinipal, ControlPrincipal, ConexionSerial, LudoServer, y Sonido, ha sido desarrollado en el IDE eclipse como un proyecto de tipo “Java proyect”, se ha procurado una modularización adecuada, lo que conlleva a una independencia funcional entre la interfaz gráfica y la lógica funcional.

Figura 4. Interfaz gráfica de la implementación optimizada para displays de 10.1”.

La figura 6 presenta el diagrama de secuencia para el caso de uso realizar movimiento.

4.2.1 Clase Principal Su función es únicamente iniciar la aplicación a través del método estático main.

4.2.2 Clase ControlPrincipal Gestiona la interacción entre las clases que componen el programa servidor.

4.2.3 Clase VentanaPrincipal Figura 5. Interfaz gráfica de la implementación optimizada para displays de 4”.

Interfaz gráfica del programa servidor, con la que interactúa directamente el usuario, su creación se realizó mediante el pluginWindowsBuilder.

152

Tlamati, Número Especial 3 CICOM 2014

Figura 6. Diagrama de secuencia del caso de uso realizar movimiento.

5. INSTALACIÓN DE LA IMPLEMENTACIÓN 5.1 Instalación programa cliente Para instalar la aplicación cliente se debe generar un archivo .apk a través del IDE arduino y posteriormente ejecutarlo en el dispositivo móvil para iniciar su instalación. Para el desarrollo y pruebas iniciales el programa cliente ha sido instalado en una tableta Samsung Galaxy Tab 2 10.1® cuyas características principales concernientes al desarrollo de la implementación son:

Figura 7. Interfaz del programa servidor.

4.2.6 Clase Sonido.java Esta clase es utilizada para que el robot reproduzca archivos de audio extensión .wav. Actualmente el robot reproduce las frases gracias, con permiso, hola, buenos días/tardes/noches de acuerdo a la hora del día.

- Procesador Dual-Core 1GHz - Display 10.1” - Memoria interna 16 GB User memory + 1 GB Ram - Memoria externa microSD (up to 32GB) - Operating system Android 4.0 (Ice cream sandwich)

4.3 Programa microcontrolador arduino El programa del microcontrolador gestiona los caracteres (o equivalentemente valores numéricos enteros entre 0 y 255) que le envía el programa servidor, y de esta manera activar los motores correspondientes.

153

Tlamati, Número Especial 3 CICOM 2014

7. OBSERVACIONES El programa cliente puede ser instalado dispositivos android 4.0 y versiones superiores con la simple ejecución archivo .apk generado en el IDE eclipse, lo que pone a disposición del público general el control del robot y crea una experiencia de cercanía con este y la tecnología.

8. SIGUIENTES PASOS Se ha realizado de manera exitosa una primera implementación en Android para el control del robot Ludovico.

Figura 2. Fotografía de la tableta Samsung Galaxy Tab 2 10.1.

La implementación ha sido enfocada en la funcionalidad del control del robot, sin embargo es deseable desarrollar una interfaz gráfica del programa cliente que se adapte de manera precisa y automática al display del positivo móvil en el que es instalado.

5.2 Instalación programa servidor Para hacer uso del programa servidor es necesario generar un “Runnable Jar File” en el IDE eclipse, añadir los archivos de audio a la raíz del archivo jar generado (este archivo está compuesto de una estructura de directorios) y copiarlo al ordenador portátil que utilizaremos para la ejecución de la implementación. El ordenador portátil debe contar además con la instalación del microcontrolador arduino, Java Runtime environment y se deben copiar en él las librerías RXTXcomm, librxtxSerial.so y librxtxParallel.so.

De manera inmediata es posible montar una cámara y micrófono en el robot y establecer comunicación de audio y video entre la tableta y la computadora servidor con la ayuda de un programa externo, el programa que parece tener más estabilidad (a la fecha actual y después de una investigación no exhaustiva) para tal fin entre sistemas operativos Windows y Android es Yahoo Messenger.

6 EJECUCIÓN DE LA MPLEMENTACIÓN Para ejecutar la implementación se requiere:

Eventualmente la funcionalidad de compartir audio y video entre el cliente y el servidor podría ser integrada a la implementación.

- Conectar el microcontrolador arduino a un puerto USB de la máquina servidor. - Conectar a un mismo ruteador tanto el dispositivo móvil como la máquina servidor. - Ejecutar en la máquina servidor el programa servidor, establecer comunicación con el microcontrolador arduino. - Iniciar el servidor. - Ejecutar el programa cliente en el dispositivo móvil y conectarse al servidor mediante la dirección IP que le ha sido asignada al servidor por el ruteador.

Actualmente alumnos en la Universidad Autónoma Metropolitana Iztapalapa se lleva a cabo el desarrollo de un brazo y mano de mecanismo avanzado que se integrará al robot Ludovico, lo que conllevará cambios en el software, además se contempla dotar al robot de sensores para evitar impactos y posibilitar el desarrollo de algoritmos para su desplazamiento autónomo.

9. REFERENCIAS SCJP Sun Certified Programmer for Java 5 Study Guide (Exam 310-055) byKathy Sierra and Bert Bates, McGraw-Hill/Osborne 2006. http://arduino.cc/playground/Interfacing/Java

154

Tlamati, Número Especial 3 CICOM 2014

Estudio de Expectativas y Acceso a la Modalidad Virtual Ma. de Lourdes Hernández Aguilar Universidad Autónoma del Estado de Hidalgo. Sistema de Universidad Virtual Departamento Académico 771 71720000 Ext. 5600

Maribel Pérez Pérez

Erika González Farfán

Universidad Autónoma del Estado de Hidalgo. Sistema de Universidad Virtual Área de Docencia 771 71720000 Ext. 5600

Universidad Autónoma del Estado de Hidalgo. Sistema de Universidad Virtual Coordinación de Bachillerato 771 71720000 Ext. 5603

[emailprotected]

[emailprotected]

[emailprotected] interested in studying high school level at the Sistema de Universidad Virtual (SUV) of the Universidad Autónoma del Estado de Hidalgo (UAEH). This work provides a brief theoretical reference about pertinence studies as one of the main stages in the methodology of curriculum design, which aim focuses on providing guidelines for the development of new academic programs or their updating. Hence, we share the results of one of these studies that was implemented in the redesign process of the high school program at SUV.

RESUMEN Con el presente trabajo se pretende mostrar los resultados de un estudio de pertinencia para conocer las expectativas y las posibilidades de acceso a la modalidad virtual de población interesada en realizar estudios de nivel medio superior en el Sistema de Universidad Virtual (SUV) de la Universidad Autónoma del Estado de Hidalgo (UAEH). Comprende breves referentes teórico conceptuales, entre los que destacan la descripción de los estudios de pertinencia que se tienen establecidos como parte de la metodología para llevar a cabo los procesos de diseño o rediseño curricular, mismos que aportan referentes para orientar su desarrollo. De esta manera se comparten los resultados de uno de dichos estudios que han sido utilizados en el rediseño curricular del programa de Bachillerato del SUV.

Keywords Pertinence, relevance, academic programs, social expectations, curriculum design, distance education 1. INTRODUCCIÓN

Palabras clave Pertinencia, relevancia, programas educativos, expectativas sociales, diseño curricular, educación a distancia ABSTRACT This paper shows the outcomes of a pertinence study that was carried out in order to identify the expectations and opportunities for online learning access of the population El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de GuerreroACM

155

La Universidad Autónoma del Estado de Hidalgo (UAEH) en su plan de desarrollo institucional 2011-2017 asume como compromisos centrales con la sociedad, la innovación, calidad y pertinencia educativa. En este sentido plantea dentro de sus objetivos estratégicos el contar con la metodología para realizar estudios de factibilidad, pertinencia y viabilidad a nivel licenciatura, así como aumentar la matrícula en el nivel medio superior: Para asumir dichos compromisos, el Sistema de Universidad Virtual (SUV) de la UAEH, contribuye con oferta de programas educativos de nivel medio superior y superior, cuyo diseño y rediseño curricular se realiza con base en esta metodología. Es así como en el presente trabajo se pretende mostrar el desarrollo y los resultados del estudio de expectativas y acceso a la modalidad virtual específicamente para el nivel medio superior, el cual corresponde a uno estudios de pertinencia que se tienen contemplados en el proceso de rediseño curricular, cuya finalidad es identificar las expectativas, posibilidades económicas y de acceso a internet de los aspirantes para continuar sus estudios en este tipo de educación.

Tlamati, Número Especial 3 CICOM 2014

Sin embargo, antes de profundizar en la descripción del estudio es importante establecer un referente teórico para definir a la pertinencia en el contexto del diseño curricular, en este sentido la UNESCO (2008) indica que “se refiere al papel y el lugar de la educación superior en la sociedad, como lugar de investigación, enseñanza, aprendizaje, sus compromisos con el mundo laboral, etc.” (Pág. 93) es decir, toma en cuenta el entorno en el cual están insertas las instituciones para participar en la búsqueda de soluciones a determinadas problemáticas sociales, de esta manera se logra la relación entre la institución y la sociedad (Villa, y otros, 2013). En otras palabras la pertinencia tiene que ver con el análisis de los problemas que aquejan a los sistemas educativos, así como con las posibilidades que brindan las tecnologías como medios no solo para la ampliación de matrícula sino para mejorar la calidad de los servicios educativos. (Tünnermann, C. 2000). Siendo así, es de vital importancia determinar la pertinencia de los programas educativos, puesto que ésta tiene un impacto directo sobre las decisiones que una institución tome con respecto a la continuación o surgimiento de nuevas propuestas de oferta educativa a distancia, como es el caso del Sistema de Universidad Virtual (SUV) de la Universidad Autónoma del Estado de Hidalgo (UAEH). En consecuencia la pertinencia contribuye a elevar la calidad de la educación que se imparte en el SUV con el objetivo de ubicar a los egresados en una posición de competencia profesional o para acceder a educación superior adecuada a las necesidades previsibles en los diferentes planos geográficos, procurando la igualdad de condiciones de acceso a los estudios así como la mejora en los procesos de enseñanza y aprendizaje y los servicios. De esta manera, el SUV contribuye con la ampliación de su cobertura y su impacto social con programas no escolarizados, que al no estar sujetos a restricciones espacio-temporales, abren el potencial de un intercambio de ideas cada vez más amplio y diversificado, sin ningún impedimento, al margen de cualquiera otra condición que tienda a separar o limitar el contacto intelectual. Debido a la importancia de ofertar programas educativos pertinentes, además del estudio que se presenta en el SUV se tienen establecidos en su Guía para la Elaboración de Estudios de Pertinencia para los Programas Educativos (Pérez Pérez, M. 2014), los siguientes para el nivel medio superior:

OFERTA DE PROGRAMAS EDUCATIVOS, para conocer la demanda potencial, actual y futura de aspirantes a ingresar, así como las características y proporción de la población atendida en un nivel previo al del programa educativo en proceso de diseño o rediseño curricular. DE OPINIÓN DE ALUMNOS. Brinda información relevante respecto de la experiencia de los alumnos al cursar el programa educativo para identificar fortalezas y debilidades sobre contenidos, secuencia, utilidad, vigencia y servicio. DE OPINIÓN DE DOCENTES. Recupera las oportunidades de mejora detectadas por los docentes en cuanto a contenidos programáticos, secuencia, utilidad y vigencia para fortalecer el programa educativo. TRAYECTORIA ESCOLAR. Aporta indicadores diversos para para determinar su eficiencia y rendimiento escolar como referentes de calidad del programa educativo. SEGUIMIENTO DE EGRESADOS. Proporciona datos importantes respecto de la formación académica obtenida en beneficio de una formación integral como requisito mínimo para mantener su fuente de trabajo, o bien para continuar estudios de licenciatura. 2. METODOLOGÍA Se trata de un estudio no experimental cuantitativo toda vez que la información se recolecta para su análisis sin necesidad de considerar manipulación de variables. Es de tipo descriptivo, cuyo análisis estadístico brinda características y rasgos importantes de la población que permitan describir sus tendencias como información relevante para formular la fundamentación del documento de rediseño curricular como lo es el propósito del estudio que nos ocupa. La población objeto de estudio fue de 386 personas interesadas, las cuales representan el 100% de preregistros realizados en un lapso de cuatro meses durante el año 2012. La información se ha obtenido a través de un cuestionario de pre-registro en línea de personas interesadas en cursar estudios de nivel medio superior en el SUV de la UAEH. Las categorías utilizadas en dicho instrumento de recolección de información son las siguientes: • Datos generales de identificación • Situación laboral • Ingreso mensual • Acceso a equipo de cómputo • Acceso a internet • Manejo de herramientas informáticas

COMPARATIVO DE PROGRAMAS EDUCATIVOS. Tiene la finalidad de determinar características de la oferta de programas similares existentes en otras instituciones educativas, en el ámbito nacional e internacional.

156

Tlamati, Número Especial 3 CICOM 2014

3. RESULTADOS

3.2 Género y estado civil Del total de población que realizó su pre-registro, se observa que la mayoría son mujeres (60%); y el estado civil casi corresponde a la mitad de la población a cada uno de los estados, si bien supera un poco (51%) los solteros. Ver figuras 2 y 3. De lo anterior, puede deducirse que posiblemente existen mujeres que son madres solteras y que por ello no solicitaron su ingreso al Nivel Medio Superior; y el interés en estudiar el bachillerato de las personas casadas, muestra que tienen pensado rescatar su vida académica, lo que refuerza la existencia de la necesidad por dar atención principalmente al rezago educativo de este tipo de educación.

3.1 Grupos de edad Se encontró que el rango de edades de la población interesada en estudios de bachillerato en modalidad virtual es de 15 a 68 años. El grupo de edad de 15 a 19 años (20%) que mostró interés por este tipo de educación, puede interpretarse que corresponde a quienes se quedaron sin lugar en el sistema presencial. Predominan quienes tienen entre 20 y 29 años que representan el 40% del total, los cuales pertenecen al grupo de rezago educativo y por tanto es una población a la que se pretende atender en primera instancia. Por otra parte, aunque en el rango de los 50 a 69 años, representa minoría es de destacarse su interés por seguir sus estudios de Nivel Medio Superior, tal como puede observarse en la tabla y figura 1. Tabla 1. Población por grupos de edad

Rango de edad 15 a 19 20 a 24 25 a 29 30 a 34 35 a 39 40 a 44 45 a 49 50 a 54 55 a 59 60 a 64 65 a 69

Número de personas interesadas 77 84 71 41 51 34 19 5 2 0 2

% 19.9 21.8 18.4 10.6 13.2 8.81 4.92 1.3 0.5 0 0.5

Figura 2. Población por género

Figura 3. Distribución de la población por estado civil

3.3 Lugar de residencia Casi el total (97%) de las personas interesadas en cursar sus estudios de Nivel Medio Superior radican en el estado de Hidalgo y se encuentran distribuidos en seis municipios localizados alrededor de la ciudad de Pachuca. El 3% restante radica en el distrito Federal, USA y en los estados de México, Guadalajara, Michoacán, Aguas Calientes, Sonora, Mexicali. Si bien, al estar ubicado el Sistema de Universidad Virtual en el estado de Hidalgo y la mayoría de la población interesada radica en el mismo, este programa educativo en modalidad virtual resulta pertinente; sin embargo también es importante lograr llegar a las personas residentes en otros estados y países lo cual se considera viable por las características propias de la modalidad en cuanto a la flexibilidad tanto de espacio como de tiempo para el estudio. Figura 1.Distribución de la población por grupos de edad 157

Tlamati, Número Especial 3 CICOM 2014

de quienes no cuentan con equipo (23 personas) mencionaron que tratarían de adquirirlo o bien de asistir a un café internet para realizar sus estudios. Por otra parte, también se observó que aproximadamente ese mismo 90% de personas que tienen equipo de cómputo, manejan herramientas informáticas básicas como el: Word, Excel, PowerPoint y utilizan el correo electrónico.

3.4 Actividad laboral y percepción mensual Un dato importante de este estudio lo constituye el hecho de que el 100% de la población interesada en continuar sus estudios en el bachillerato en modalidad virtual se encontraba laborando al momento de su pre-registro. La actividad laboral predominante corresponde a las personas que se desempeñan como secretarias (19.4%) en tanto que quienes se dedican como gerentes y supervisores representan apenas el 1.8% del total. Ver tabla 2.

4. CONCLUSIONES El presente estudio de pertinencia da cuenta de las características de la población que tiene interés en realizar estudios de nivel medio superior en el Sistema de Universidad Virtual de la Universidad Autónoma del Estado de Hidalgo. Esta investigación permitió identificar los principales rasgos de la población objetivo, destacando el que la mayoría son mujeres, ya que solo hubo un 40% de hombres interesados en este programa educativo. Así mismo, se encontró que existe un porcentaje importante de población con rezago educativo; y con lugar de residencia de la mayoría en zonas cercanas a la capital del estado de Hidalgo, por lo que existe oportunidad de incursionar en otros estados y también en ofertar el programa a mexicanos que radican en otros países. La situación económica predominante permitió conocer los ingresos de la población que en su totalidad trabaja principalmente desempeñando algún tipo de oficio, lo que hace que sus ingresos mensuales no rebasen los $3,000.00 mensuales. Esta información resulta relevante para determinar la factibilidad del programa y para poder seleccionar las estrategias de implementación más adecuadas como por ejemplo, el otorgar becas para coadyuvar a la atención del rezago educativo y también para promover el culminar con una carrera universitaria. Otra información importante lo constituye el acceso a un equipo de cómputo conectado a internet y el manejo de herramientas informáticas, además de una cuenta de correo, para tener la certeza de que todos los interesados reúnan estos requisitos que son indispensables para tener acceso a la modalidad.

Tabla 2. Población por actividad laboral

Actividad Laboral Administrativos Empleados Ayudantes Generales Secretarias Asistentes Soldadores, carpinteros, plomeros, choferes Cajeras Policía Encargados de negocios Gerentes Supervisores Vendedores Cocineros Enfermeras

Número personas 33 19 25

de

% por actividad laboral 8.6 4.9 6.5

75 58 36

19.4 15 9.3

25 18 18

6.5 4.7 4.7

4 3 36 22 14

1 0.8 9.3 5.7 3.6

En cuanto al tipo de actividades laborales predominan los oficios donde los salaries oscilan entre los $2,000.00 y $3,000.00 mensuales, dato que es relevante tomar en cuenta al momento de determinar el costo por asignatura al implementarse el rediseño de este programa educativo. Cabe hacer mención que el costo actual es de $100.00 y por tanto no debe incrementarse, o bien lomínimo, de lo contrario no podría costearse sus estudios, a menos que se reforzara el programa de becas.

5. REFERENCIAS

3.5 Acceso a la modalidad virtual Otro rubro relevante a considerar para determinar la pertinencia del bachillerato en modalidad virtual, lo constituye el hecho de que las personas interesadas tengan acceso a un equipo de cómputo con conexión a internet, y manejen de manera básica las principales herramientas informáticas, por ello esta información es imprescindible tomarla en consideración. Se encontró que de las 386 personas que participaron en el estudio, más de un 90% cuentan con una computadora con servicio de internet, lo que les permitirá tener acceso a las actividades a desarrollar en el Bachillerato Virtual y

[1] Gazzola, A., & Didriksson, A. (2008). IELSACUNESCO. Obtenido de Tendencias de la Educación Superior en América Latina y el Caribe: http://iesalc.unesco.org.ve/index.php?option=com_con tent&view=article&id=2&Itemid=408&lang=es [2] Malagón, L. A. (2003). La pertinencia en la educación superior. Elementos para su comprensión. México. Revista de la Educación Superior, ANUIES. [3] Pérez Pérez, M. 2014. Guía para la Elaboración de Estudios de Pertinencia para los Programas 158

Tlamati, Número Especial 3 CICOM 2014

Educativos del SUV. Sistema de Universidad Virtual de la Universidad Autónoma del Esado de Hidalgo. [4] Tünnermann, C. 2000. Pertinencia Social y Principios Bàsicos para Orientar el Diseño de Políticas de Educación Superior. Educación Superior y Sociedad, 11, 1 y 2. 181-196. [5] Universidad Autónoma del Estado de Hidalgo, 2011. Plan de Desarrollo Institucional 2011-2017.

[6] Villa, A., Arnau, E., Cabezas, C., Cancino, R., Fernández-Lamarra, N., Greisin, C., . . . López, A. L. 2013. Un Modelo de Evaluación de Innovación Social Universitaria Responsable. Obtenido de ProyectoTuning América Latina: http://www.tuningal.org/es/publicaciones/doc_details/ 116-un-modelo-de-evaluacion-de-innovacion-socialuniversitaria-responsable-isur-en-espanol

159

Tlamati, Número Especial 3 CICOM 2014

Modelo para la determinación del nivel de riesgo de Deserción Estudiantil empleando Redes Neuronales Artificiales Martha Lucia Tello Castañeda

Roberto Emilio Salas Ruiz

Hermes Javier Eslava Blanco

Universidad Distrital FJC Bogotá Colombia 571-3239300 Ext.5014

Universidad Distrital FJC Bogotá Colombia 571-3239300 Ext.5008

Universidad Distrital FJC Bogotá Colombia 571-3239300 Ext.5014

[emailprotected]

[emailprotected]

[emailprotected]

concepts of RNA presents. Finally overall conclusions and future work are presented.

RESUMEN En este artículo primero se realiza una revisión de antecedentes sobre estudios de deserción estudiantil, se presenta un apartado con los resultados de estudios relacionados con las RNA aplicados a la educación y que sirven como referente al objeto de estudio, después se muestran las definiciones relacionadas con la deserción estudiantil, posteriormente se presenta un apartado con la introducción de las principales áreas involucradas como son la inteligencia artificial y el aprendizaje computacional, y los principales conceptos sobre RNA. Finalmente se presentan las Conclusiones generales y trabajos futuros.

Keywords Artificial Neural Networks, Machine Learning, back-propagation algorithm, Data Mining.

1. INTRODUCCIÓN Uno de los principales problemas que enfrenta el sistema de educación superior en Colombia está relacionado con los altos niveles de deserción estudiantil. A pesar de los esfuerzos por aumentar la cobertura, el número de estudiantes que logra culminar sus estudios superiores no es el esperado. Según estadísticas de cada 100 estudiantes que ingresan a una Institución de Educación Superior (IES) cerca de la mitad no logra terminar su ciclo académico . Ante esta situación, se inició un proceso de revisión de la deserción, entre el año 2004 y 2008, donde se encontró que la tasa registrada por cohorte de ingreso disminuyo de 48.4 % en 2004 a 44.9 % en 2008, estos porcentajes son inferiores comparados con Latinoamérica que presenta un 55% de deserción al 2006 .

Palabras Clave Redes Neuronales artificiales, algoritmo de retropropagación Aprendizaje computacional, Minería de datos.

ABSTRACT This article first reviews background on dropout studies, a section presents the results of studies related to the RNA applied to education and serving as a reference to the object of study is done, then the related definitions are shown student attrition, then a section with the introduction of the main areas involved such as artificial intelligence and computational learning, and the main

Aunque actualmente la definición de deserción estudiantil continúa en discusión, existe consenso en precisarla como un abandono que puede ser explicado por diferentes categorías de variables: socioeconómicas, individuales, institucionales y académicas. Sin embargo, la forma de usarlas depende del punto de vista desde el cual se haga el análisis; esto es, individual, institucional y estatal o nacional. Desde el punto de vista institucional todos los estudiantes que abandonan una institución de educación superior pueden ser clasificados como desertores . También se considera la deserción como un evento en la trayectoria académica estudiantil que consiste en la interrupción de la matrícula, y que esta interrupción puede ser de tipo temporal o definitiva, además que dicha interrupción puede presentarse al inicio, en el intermedio o al final de la carrera

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 24, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de GuerreroACM

Sin embargo, no es claro que todos los tipos de abandono requieran la misma atención o exijan similares formas de 160

Tlamati, Número Especial 3 CICOM 2014 intervención por parte de la institución. Allí radica la gran dificultad que enfrentan las instituciones educativas con la deserción. El conocimiento de los diferentes tipos de abandono constituye la base para elaborar políticas efectivas con el fin de aumentar la retención estudiantil. Desde esta perspectiva, existen variables externas e internas que determinan la probabilidad de deserción de los estudiantes, siendo las más comunes las académicas y las socioeconómicas y las menos exploradas las individuales e institucionales .

como son la sencillez usada en su lenguaje y aplicación, las disminución de costos en tiempo y dinero al eliminar variables redundantes, el tratamiento de datos ambiguos, en especial cuando los métodos tradicionales como los estadísticos, no ofrecen resultados satisfactorios . Adicionalmente la mayoría de los estudios que utilizan técnicas de minería de datos, muestran el uso de métodos Supervisados, como la Clasificación, en el cual se aplican algoritmos como regresión logística, árboles de clasificación, k-vecinos más cercanos y los No Supervisados como es el agrupamiento . Algunos de los objetivos de estos estudios son establecer si existen patrones académicos, factores sociales y demográficos, que caractericen a los alumnos que abandonan sus estudios. . Se logró analizar el perfil socioeconómico y educativo de los estudiantes nuevos y su relación con el rendimiento académico .

El Ministerio de Educación Nacional (MEN) ha financiado proyectos de investigación sobre retención estudiantil, en las IES como estrategia para apoyar a los estudiantes en su permanencia y terminación exitosa de sus estudios. La meta es disminuir la deserción estudiantil del 12,9% en el 2010, al 9% en el 2014 . De hecho en el 2002 fue desarrollado el Sistema de Prevención de la Deserción en Educación Superior (SPADIES), por la Universidad de los Andes, ante la necesidad de contar con una visión sectorial e integrada de la problemática de la deserción, a partir de la cual se pudiera disponer de una conceptualización, una medición y una metodología de seguimiento del fenómeno aplicables a todas las instituciones de educación superior del país .

A pesar de que la deserción estudiantil ha sido estudiada y analizada por diferentes IES y entes gubernamentales, los resultados no se pueden generalizar aplicándolos a los diferentes programas académicos e IES, por lo tanto es necesario realizar estudios que incluyan las particularidades de los programas y las características propias de cada IES. Es por esta razón que para la universidad Distrital Francisco Jose de Caldas (FJC), es importante continuar con estudios que contribuyan a mejorar la comprensión del fenómeno de la deserción estudiantil .

La herramienta SPADIES está articulada con el Sistema Nacional de Información de la Educación Superior (SNIES), el Instituto Colombiano para el Fomento de la Educación Superior (ICFES) y el Instituto Colombiano de Crédito Educativo y Estudios Técnicos en el Exterior (ICETEX) .

Por todo esto, en este trabajo se plantea un estudio de la deserción estudiantil mediante el uso de la técnica de aprendizaje computacional: Redes Neuronales Artificiales (RNA). Las RNA son estructuras simplificadas de lo que se conoce acerca de los mecanismos y estructura física del conocimiento y aprendizaje biológico, tomando como base el funcionamiento de la neurona biológica. Una RNA es una estructura paralela de procesamiento distribuido de la información, cuyo elemento básico es la neurona .

En el SPADIES se observa el uso de los modelos de duración para el análisis de la deserción estudiantil. Algunas de las características que presentan estos modelos es que permiten determinar el riesgo de ocurrencia de un evento relacionado con la deserción estudiantil, analizan su probabilidad de ocurrencia y los diferentes tipos de decisiones que toman los estudiantes como por ejemplo interrumpir transitoriamente sus estudios para posteriormente retornar, hacer transferencia y culminar en otra institución entre otros .

Existen distintos tipos de redes neuronales, dependiendo del tipo de aprendizaje que se desee realizar. El tipo de red neuronal más utilizado en clasificación y predicción es el Perceptrón Multicapas, que consiste de neuronas conectadas por capas, donde cada capa tiene una cantidad de neuronas asociadas. El aprendizaje que se utiliza en este tipo de redes es el de retropropagación del error, en donde se trata de minimizar la función del error entre la salida deseada y la del modelo neuronal a partir de un conjunto de observaciones ya clasificadas .

Sin embargo se ha encontrado que la herramienta SPADIES presenta algunas desventajas en cuanto al análisis de la deserción estudiantil en las IES , una de las más relevantes es que la validez de los estudios hechos a nivel de programas académicos puede presentar algunos sesgos a la hora de interpretar resultados estadísticos , ya que la información que alimenta el sistema es de carácter nacional y no se tiene en cuenta que las IES tienen particularidades específicas, aspectos curriculares propios, diferentes perfiles de los estudiantes y diferentes política institucionales .

Adicionalmente estas permiten manejar la información histórica y tienen la capacidad de asociar o clasificar patrones, para poder predecir patrones futuros , son una herramienta potente para predecir el comportamiento del semestre posterior, respecto al semestre anterior en cualquier momento de la permanencia en la carrera . Las RNA se encuentran en el ámbito del aprendizaje supervisado, que se caracteriza por el conocimiento de cuáles son las salidas esperadas para cierto conjunto de datos de entrada, como por ejemplo los aspectos académicos de los estudiantes, en un determinado periodo de tiempo .

Por otro lado se han venido adelantando otros estudios en cuanto al tema de deserción estudiantil que muestran el uso de métodos estadísticos, como son el análisis univariado, análisis de supervivencia en tiempo discreto con múltiples episodios, el modelo de regresión logística y el modelo lineal. El uso de estos métodos permitió obtener información sobre las características individuales, académicas, institucionales y socioeconómicas más relevantes en el ámbito de la deserción estudiantil .

Los resultados de aplicar RNA serán evaluados, para determinar patrones de comportamiento que indiquen si un estudiante desertará y la complejidad computacional de los algoritmos utilizados. Estos resultados también contribuyen al continuo proceso de evaluación del sistema de educación superior y a la formulación de reformas educativas efectivas y eficientes orientadas a disminuir las tasas de deserción estudiantil .

Así mismo se pueden utilizar las técnicas ofrecidas por la minería de datos para medir el nivel de riesgo de deserción . En relación a lo anterior algunos estudios muestran el uso de la metodología Rough Sets (Conjuntos aproximados) para la identificación de variables críticas influyentes en la deserción académica , esta metodología presenta algunas ventajas , 161

Tlamati, Número Especial 3 CICOM 2014 Estos trabajos descritos buscan predecir el éxito o fracaso de los estudiantes, o su inserción o deserción de la universidad, tomando siempre como objetivo predecir valores nominales y atemporales. En este mismo contexto, el enfoque del presente trabajo es realizar un análisis de la información histórica de aspectos académicos durante un cohorte determinado, considerando para ello la capacidad de predecir el comportamiento futuro del estudiante, en cuanto a si terminará sus estudios o desertara, a través de técnicas de RNA.

2. REDES NEURONALES ARTIFICIALES APLICADAS AL ÁMBITO EDUCATIVO En el contexto del uso de RNA para predecir patrones futuros de comportamiento en el ámbito educativo, trabajos como utilizan una red neuronal multicapas para predecir el éxito o fracaso de estudiantes utilizando los datos del Programa Internacional para la Evaluación de Estudiantes (PISA), obteniendo una precisión de más del 75% en la clasificación. Por otro lado, en otro estudio se utiliza una red neuronal para predecir el rendimiento en la asignatura de Algoritmos y Programación I; para ello utilizan los datos de 450 estudiantes, en dos redes neuronales, una para pronóstico (aprueba o no) y otra para guiar en temas de estudios para aprobar, cuando la red prediga que no aprobará, esta se basa en los errores cometidos, le puede indicar qué temas debe estudiar, a fin de recomendarle al estudiante los ejercicios por núcleos temáticos. Para este primer entrenamiento predictivo la red operó con un error del 4%, lo que es más que aceptable para el trabajo con grupos humanos .

3. REVISIÓN CONCEPTUAL 3.1 Deserción Estudiantil El estudio de la deserción en la educación superior es extremadamente complejo, ya que implica no sólo una variedad de perspectivas sino también una gama de diferentes tipos de abandono. Además, sostiene que ninguna definición puede captar en su totalidad la complejidad de este fenómeno, quedando en manos de los investigadores la elección de la aproximación que mejor se ajuste a sus objetivos y al problema por investigar .

En utilizan una red neuronal multicapas para predecir el rendimiento de estudiantes de primer año de la carrera de Ingeniería Civil en la Universidad de Concepción. La estructura de la red neuronal propuesta tiene una precisión que fue cercana al 91%, mostrando que las variables de mayor incidencia en una correcta decisión, fueron el sexo, puntaje de ingreso, estrato socioeconómico y la distancia entre la residencia y la universidad, de los cuales el más relevante fue el puntaje de ingreso.

También se puede entender la deserción como una situación a la que se enfrenta un estudiante cuando aspira y no logra concluir su proyecto educativo, considerándose como desertor a aquel individuo que siendo estudiante de una institución de educación superior no presenta actividad académica durante dos semestres académicos consecutivos, lo cual equivale a un año de inactividad académica . En algunas investigaciones este comportamiento se denomina como “primera deserción”, ya que no se puede establecer si pasado este periodo el estudiante retomará o no sus estudios o si decidirá iniciar otro programa académico. Esta es la definición que ha adoptado el MEN para la medición y seguimiento de la deserción estudiantil .

Otro de los estudios muestra la implementación de las RNA en los sistemas de gestión educativa representa una excelente herramienta para evitar tareas rutinarias al docente, clasificar conceptos, permitiéndole a este poder mejorar los modelos académicos de evaluaciones, también implementar estrategias pedagógicas para la predicción en el desempeño académico de los estudiantes. La clasificación, identificación y análisis de los patrones obtenidos con el uso de RNA obtuvieron un rendimiento en las consultas del 90% ya que para los docentes se les facilito la asignación de calificaciones utilizando el modelo planteado .

Para el caso de la Universidad Distrital, el índice de deserción en el periodo t, se definió como:

, que es igual al cociente entre la

diferencia del número de matriculados graduados

Por último en el siguiente estudio se describe una arquitectura de Data Warehouse con el fin de realizar un análisis del desempeño académico de los estudiantes de Ingeniería Civil en Computación e Informática de la Universidad de Atacama. El Data Warehouse es utilizado como entrada de una arquitectura de RNA con tal de analizar la información histórica y de tendencia en el tiempo. Los resultados muestran la viabilidad de utilizar un Data Warehouse para el análisis de rendimiento académico y la posibilidad de predecir el número de asignaturas aprobadas por los estudiantes usando solamente su propia información histórica. Se diseñó una arquitectura de RNA para la predicción de rendimiento de los estudiantes usando los algoritmos de Matlab y la red neuronal fue entrenada con el algoritmo backpropagation y se utilizó la función logarítmica sigmoide en ambas capas de la red. Se demostró cómo la arquitectura de RNA propuesta permite predecir el comportamiento del semestre posterior de un estudiante respecto al semestre anterior en cualquier momento de permanencia en la carrera. A pesar de que los resultados de la aplicación de RNA pueden ser perfectibles utilizando información adicional del estudiante, como información socioeconómica y encuestas, se piensa que la estimación alcanzada cumple con el objetivo de mostrar la tendencia futura en el comportamiento de un estudiante .

Dt =

Gt

Mt

y la suma de los

y los activos del mismo periodo

At

, esto es [7]:

M t − ( Gt + At ) G + At = 1− t Mt Mt

3.2 Inteligencia Artificial y Aprendizaje Computacional

Técnicas

de

Uno de los objetivos de la Inteligencia Artificial es hacer programas de ordenador inteligentes capaces de imitar el comportamiento humano . Se caracteriza por ser multidisciplinar y se apoya en los conceptos y técnicas de otras disciplinas. Entre las líneas de investigación se encuentran las técnicas de aprendizaje y de ingeniería del conocimiento. Estas técnicas son aplicables al campo de la educación, ya que permiten construir sistemas que incluyen conocimiento, que posteriormente ayuda a los procesos de toma de decisiones en el ámbito educativo . Los sistemas inteligentes pueden construirse a partir de dos enfoques: en el primero se introduce en el computador 162

Tlamati, Número Especial 3 CICOM 2014 conocimiento que ha sido acumulando por un experto a lo largo de su experiencia profesional, para obtener lo que se llama sistema experto. El segundo enfoque es elaborar programas capaces de generar conocimiento a través del análisis de los datos empíricos y, en una fase posterior, usar ese conocimiento para realizar inferencias sobre nuevos datos. Como resultado de este enfoque surgen diversos procedimientos, conocidos como Aprendizaje Automático (Machine Learning) o Minería de Datos (Data Mining), que van a permitir la transformación de una base de datos en una base de conocimiento .

Una regla de propagación, que proporciona el valor del potencial

postsináptico

hi (t ) =

Wij X j

hi (t ) = σ (Wij , X j (t ))

;

es el más común, en función de sus

pesos y entradas. •

Una función de activación

Yi = f (hi (t ))

, que representa

la salida de la neurona y su estado de activación.

Las técnicas de aprendizaje computacional aplicables pertenecen en su mayor parte a dos grupos principales: Las que buscan el conocimiento a través de un proceso consistente en anticipar patrones en los datos, construyen estructuras que aprendan y se auto organizan, imitando a las de la vida biológica, entre ellas se encuentran las diversas arquitecturas de Redes Neuronales Artificiales y aquellas técnicas consistentes en inferir reglas de decisión a partir de los datos de la base. Para ello existen diversos algoritmos de inducción de reglas y árboles de decisión .

3.3 Redes Neuronales Artificiales Las Redes Neuronales Artificiales (RNA) fueron objeto de especial interés en los primeros tiempos de la Inteligencia Artificial (años 50 y 60). Sin embargo, los resultados no fueron alentadores, pues el escaso desarrollo que por aquellas fechas presentaba la tecnología informática provocó que muchas investigaciones acabaran en fracaso. Además, diversos trabajos, pusieron de manifiesto graves limitaciones en el proceso de aprendizaje de las arquitecturas de red más usuales por aquel entonces. Todo esto motivó que durante la década de los 70 el interés por las redes neuronales artificiales desapareciera casi por completo. Sin embargo, a partir de los años 80 los computadores más potentes resultantes del avance de la tecnología informática y el mejor conocimiento de la estructura del cerebro humano provocaron un resurgimiento del interés por el tema, y por ello en los últimos años se constata un número creciente de aplicaciones, para diversos propósitos y en diversas áreas de estudio como la electrónica, física, matemáticas, ingeniería, biología y psicología .

Figura 1 Esquema de la neurona artificial [36]

En cuanto a la relación que existe en entre las neuronas biológicas y las artificiales, las RNA imitan la estructura hardware del sistema nervioso, con la intención de construir sistemas de procesamiento de la información paralelos, distribuidos y adaptativos, que puedan presentar un cierto comportamiento inteligente. Por lo tanto la idea que subyace en los RNA es que para abordar el tipo de problemas que el cerebro resuelve con eficiencia, puede resultar conveniente construir sistemas que copien en cierto modo la estructura de las redes neuronales biológicas con el fin de alcanzar una funcionalidad similar .

Por lo tanto el estudio de las RNA en este proyecto puede orientarse en dos direcciones: como modelos del sistema nervioso y los fenómenos cognitivos o como herramientas para la resolución de problemas prácticos; este último será el punto de vista a tratar. En este sentido, se considera que las RNA son sistemas, hardware o software de procesamiento que copian esquemáticamente la estructura neural del cerebro para tratar de reproducir sus capacidades. Las RNA son capaces así de aprender de la experiencia de las señales o datos provenientes del exterior, dentro de un marco de computación paralela y distribuida, fácilmente implementable en dispositivos de hardware .

3.3.2 Aprendizaje artificiales

3.3.1 Neurona artificial

redes

Hay dos tipos principales de aprendizaje en RNA

Teniendo esto en cuenta la neurona consiste en: Conjunto de entradas

las

neuronales

Cuando las RNA presentan cambios de comportamiento, necesitan adaptarse a un nuevo entorno. Estos cambios son debidos a variaciones en los pesos de la red, que son los que dan lugar al aprendizaje. Estos se producen para modelar los cambios en el rendimiento de la sinapsis de las redes neuronales reales. Se cree que nuestro aprendizaje se debe a cambios en el rendimiento o eficiencia de la sinapsis, a través de las cuales se transmite la información entre neuronas.

La neurona artificial se caracteriza por tratar de asimilar ciertas características y propiedades de la neurona biológica, en el sentido de integrar una serie de entradas y proporcionar cierta respuesta, que se propaga por el axón, como muestra la Figura 1 .

en

X j (t ) y pesos sinápticos Wij 163

:

Aprendizaje supervisado: Con este tipo de aprendizaje, se le proporciona a la red un conjunto de datos de entrada y la respuesta correcta. El conjunto de datos de entrada es propagado hacia adelante hasta que la activación alcanza las neuronas de la capa de salida. Esto con el propósito de comparar la respuesta calculada por la red, con aquella que se desea obtener. Entonces se ajustan los pesos para asegurar que la red produzca de una manera más probable una respuesta correcta en el caso de que se vuelva a presentar el mismo o similar patrón de entrada.

Tlamati, Número Especial 3 CICOM 2014 •

Aprendizaje no supervisado: Con este tipo de aprendizaje, solo se le proporciona a la red un conjunto de datos de entrada. La red debe auto-organizarse o auto-enseñarse dependiendo de algún tipo de estructura existente en el conjunto de datos de entrada.

tienen cada neurona se llama actividad y se denota como Figuras 2b

am

.

El algoritmo más utilizado para realizar la actualización de las actividades neuronales y los pesos de interconexión en una arquitectura MLP es el algoritmo de propagación hacia atrás. La propagación hacia atrás empleada para llevar a cabo la modificación del estado neuronal, implica dos pasos denominados propagación hacia adelante y propagación hacia atrás. Durante el entrenamiento, cada muestra se introduce en la capa de entrada y las actividades de las neuronas son secuencialmente actualizadas desde la capa de entrada hasta la capa de salida en términos de alguna función de mapeo. Una vez que el avance hacia adelante está terminado, las actividades de la salida de las neuronas son comparadas con las actividades esperadas. Excepto en circunstancias muy inusuales, las salidas reales serán diferentes a los resultados esperados y las diferencias son el error de la red .

3.3.3 Topología de la red Las neuronas artificiales así definidas se conectarán unas con otras, formando diversas estructuras conocidas como topologías de red. En las distintas topologías, unas neuronas tendrán la misión de recoger los estímulos o variables de entrada que se le suministran al sistema, otras se encargarán de suministrar al exterior la respuesta proporcionada por la red neuronal, mientras que un tercer grupo, cuya existencia es opcional, no tendrá conexión con el exterior y se encargará solamente de la realización de tareas de procesamiento intermedio. La estructura de cada topología de red depende del problema a resolver, es decir, de la respuesta que se pretende que el sistema proporcione. En líneas generales, es posible hablar de dos grandes bloques: redes clasificadoras, que son las que ante un conjunto de patrones de entrada responderán con una clasificación de la entidad o situación que presente esos patrones con arreglo a un conjunto finito de categorías y redes optimizadoras, las cuales tratarán de optimizar una función objetivo .

Este error se distribuye a través la red por medio de una propagación hacia atrás desde la capa de salida, con esto se actualizan los pesos. Los pasos hacia adelante y hacia atrás continúan hasta que la red aprende las características de todas las clases. Este procedimiento se llama formación la red.

Dentro las redes clasificadoras está el modelo perceptrón que consiste en un conjunto de neuronas divididas en capas. Cuando al sistema se le suministran los datos de un nuevo caso se actualizan en primer lugar las neuronas de la capa de entrada, y así sucesivamente hasta la capa de salida, que indica la respuesta del sistema. Este modelo fue el primero en ser desarrollado, pero sin embargo a partir de los años setenta se dejó de utilizar debido a los problemas que presentaban los algoritmos de aprendizaje, que lo hacían inoperante para la mejora de los resultados obtenidos con las técnicas estadísticas . El problema se soluciona cuando se desarrolla un procedimiento innovador de aprendizaje de las redes, el cual usa la diferencia al cuadrado entre la respuesta deseada y la producida por el sistema como una medida del error a minimizar. El ajuste comienza en la capa de salida, donde el error es medible, y se va propagando hacia atrás hasta llegar a la capa de entrada, y por eso a este algoritmo también se le conoce como BP (back-propagation retropropagación) . Para el desarrollo de este trabajo se centrará en la arquitectura del tipo MLP con retro propagación de errores .

3.3.4 Arquitectura perceptrón multicapa (MLP) Las redes MLP suelen entrenarse mediante el algoritmo de aprendizaje denominado retropropagación de errores o BP, que es uno de los modelos más utilizados. La Figuras 2a muestra una red neuronal MLP de tres capas, la capa que se encuentra más a la izquierda de la neurona es la capa de entrada y contiene el conjunto de neuronas que reciben entradas externas. La capa de entrada no realiza ningún cálculo, a diferencia de los elementos de las otras capas. La capa central es la capa oculta (puede haber más de una capa oculta en redes complejas). La capa que se encuentra más a la derecha de las neuronas es la capa de salida, que produce los resultados de la clasificación. No hay interconexiones entre las neuronas de la misma capa, pero todas las neuronas de una capa dada están completamente conectadas a las neuronas de las capas contiguas. Estas interconexiones asocian pesos numéricos

Figuras 2a y 2b. Red neuronal perceptrón multicapa de tres capas [35] Durante el proceso de propagación hacia adelante, las actividades de las neuronas se actualizan capa por capa secuencialmente, desde la capa de entrada a la capa de salida, con el fin de generar de salida en la forma de las activaciones de las neuronas capa de salida. Sea

W jm ,

xj

la entrada total recibida (2)por la neurona

se representa por

los cuales se ajustan durante la fase de aprendizaje. El valor que 164

:

j , que

Tlamati, Número Especial 3 CICOM 2014

xj = Donde

a w ji

(2)

i i

ai

valor de

4.1 Etapas del modelo

es la actividad de la neurona

conexión de la

xj

conocimiento, Presentación de datos generados y Análisis de pruebas y evaluación de resultados.

i

y

w ji

A continuación se explicará cada una de dichas etapas a seguir en el desarrollo del modelo para medir el nivel de riesgo de deserción estudiantil.

es el peso de la

i th neurona a la j-ésima neurona. Una vez que el

4.1.1 Integración y recopilación de datos

es calculado, este es convertido a un valor de salida

En esta etapa se determinan, seleccionan y extraen los datos de la fuente de información para el proceso de extracción de conocimiento. Para este caso en particular se tomaran datos históricos relacionados con los aspectos académicos de la cohorte 2008-I en el periodo de tiempo comprendido entre 2008-I y 2014I de los estudiantes de tecnología en electrónica de la Facultad Tecnológica de la Universidad Distrital. La información será suministrada por la oficina asesora de sistemas (OAS).

(para la transmisión a la siguiente capa si la neurona se encuentra en una capa intermedia) utilizando una función de mapeo. La función sigmoidea es la función de mapeo que se elige más comúnmente. Es una función no lineal monótonamente creciente y está definida por:

1

a j = f (x j ) = 1+

(3)

1 exp(

xj T

4.1.2 Preparación de datos

)

El propósito principal en esta etapa, es manipular y transformar los datos haciendo que la información contenida dentro de ellos sea más accesible y coherente . Se realizan las siguientes actividades :

T es un parámetro denominado temperatura (normalmente T=1, hace que la curva sigmoidal sea más abrupta (T1). Después de calcular la actividad de cada neurona dentro de la misma capa, un proceso similar se lleva a cabo en la siguiente capa adyacente. Hay que tener en cuenta que la capa de entrada es un caso especial debido a que las neuronas en esta toman los valores proporcionados por la muestra de entrenamiento. Para los nodos de la capa de entrada, la actividad de la neurona j se encuentra justo como la j-ésima componente del vector de patrón de entrada. La función que se ha introducido como función de mapeo suele ser llamada por otros autores función de activación o función de transferencia. Esta función de activación es la encargada de transformar el valor de la entrada neta en el valor de salida del nodo .

4.1.2.1 Pre procesamiento de datos a) Eliminación de registros inconsistentes. b) Eliminación de atributos que no aportan información, por ejemplo redundancia de información, valores perdidos, etc. c) Eliminación de ruido. d) Discretización de atributos.

4.1.2.2 Selección de la información a utilizar en el proceso de extracción de conocimiento Se determina cuáles van hacer las variables independientes y la variable objetivo (conclusión). En este caso la el atributo clase será el indicador de deserción estudiantil en términos de porcentajes. Para esto, el usuario es el encargado de determinar las variables a considerar en el proceso de aprendizaje y extracción de reglas. Esta fase puede ser soportada por herramientas estadísticas, herramientas de limpieza y otras, de tal manera que el usuario pueda realizar estas operaciones de una forma eficiente .

En resumen, ha de señalarse que las redes neuronales son una técnica relativamente reciente, y que si bien ya se han desarrollado un gran número de aplicaciones satisfactorias, algunas de las cuales están siendo utilizadas en el “mundo real” dentro de sistemas de gestión del riesgo de crédito, es previsible que en un futuro vean la luz nuevos trabajos basados en desarrollos innovadores de redes. Probablemente jugarán un papel importante las aplicaciones que hibriden redes neuronales con otras técnicas (sistemas expertos, algoritmos genéticos) y que ya están siendo experimentadas en la actualidad.

4.1.3 Análisis de datos y extracción de conocimiento En esta etapa es necesario tener en cuenta que los modelos para extraer patrones de conocimiento pueden ser de dos tipos: predictivos y descriptivos. Los modelos predictivos pretenden estimar valores futuros o desconocidos de las variables de interés, que se denominan variables objetivo o dependientes, usando otras variables o campos de la base de datos llamadas variables independientes o predictivas. Los modelos descriptivos, en cambio, identifican patrones que explican o resumen los datos, es decir sirven para explorar las propiedades que los datos examinados, no para predecir nuevos datos .

4. METODOLOGÍA DE LA INVESTIGACIÓN Esta investigación plantea un modelo para medir el riesgo de deserción estudiantil, basado la metodología KDD (Descubrimiento de conocimiento en bases de datos), donde el análisis de datos se hará utilizando técnicas de aprendizaje computacional como son las redes neuronales. El modelo propuesto se presenta en la [39], la cual presenta de forma general la interacción de las diferentes etapas y la comunicación con elementos externos al sistema (Bases de Datos y Archivos). El modelo se compone de varias etapas que proporcionan una funcionalidad específica, con el fin de obtener el conocimiento oculto que hay en el conjunto de datos . Las etapas que se seguirán son las siguientes: Integración y recopilación de datos, Preparación de datos, Análisis de datos y extracción de

Para el desarrollo de esta etapa se utilizaran los modelos predictivos, dentro de este grupo se encuentran las técnicas de regresión y series temporales, análisis discriminatorios, análisis de varianza, árboles de decisión y redes neuronales artificiales. La técnica seleccionada para esta etapa son las redes neuronales artificiales.

165

Tlamati, Número Especial 3 CICOM 2014 En los últimos años las redes neuronales han sido aplicadas exitosamente a problemas de aprendizaje del mundo real, en especial al problema de deserción estudiantil, el algoritmo de propagación inversa (“backpropagation”) ha sido el más utilizado de los actuales sistemas de redes neuronales, dado su buen desempeño. El desarrollo de este proyecto se centra en redes neuronales "MultilayerPerceptron" aplicadas a tareas de clasificación .

5. CONCLUSIONES El modelo a desarrollar en este proyecto medirá el nivel de deserción estudiantil en Tecnología en electrónica de la Universidad Distrital FJC, sobre el cual se validara el conjunto de datos de estudio del presente trabajo. Para ello se describieron las etapas que incluye este, como: selección y preparación de datos, extracción de conocimiento, presentación de resultados y predicción. El objetivo de las etapas hasta aquí descritas es unificar de manera operativa, todas las fuentes de información para poder navegar fácilmente en los datos, visualizarlos y determinar cuáles serían los aspectos más importantes a ser estudiados.

4.1.4 Análisis de pruebas y evaluación de resultados En esta etapa se evalúa en qué grado el modelo generado responde a los objetivos de análisis planteados, también se intenta determinar si existe alguna deficiencia en el mismo. No hay ninguna regla completa que pueda indicarle si un modelo es suficientemente bueno, o si cuenta con suficientes datos. En general las medidas de minería de datos pertenecen a las categorías de precisión, confiabilidad y utilidad .

Adicionalmente se hace mayor énfasis en la sección de extracción de conocimiento, el cual es el "motor" de todo el modelo propuesto. Aquí se incluirá una etapa de clasificación, empleando una red neuronal MultilayerPerceptron, basada en el número de atributos y clases del conjunto de datos de entrenamiento, sobre el cual, se aplicará el algoritmo backpropagation para obtener el modelo de red neuronal entrenada que se validará contra todo el conjunto de datos y que serán la entrada para el proceso de extracción de reglas.

Se separaran los datos en conjuntos de datos de entrenamiento y pruebas, para evaluar con precisión el rendimiento de todos los modelos con los mismos datos. El conjunto de datos de entrenamiento se utiliza para generar el modelo y el conjunto de datos de prueba para comprobar la precisión del modelo mediante la creación de consultas de predicción .

6. REFERENCIAS

4.1.5 Presentación de datos generados En esta etapa se tendrán en cuenta los resultados de la evaluación del modelo y se determinará una estrategia para desarrollar nuevo conocimiento. Este conocimiento podrá apoyar la toma de decisiones a la Oficina para la Permanencia Estudiantil OPEUD de Bienestar Institucional, en cuanto a la problemática de la deserción estudiantil de la Universidad Distrital.

[1] Ministerio de Educación Nacional, Deserción estudiantil en la educación superior colombiana. Bogotá – Colombia, 2009. [2] M. Pinto, D. Durán, R. Pérez, C. Reverón, and A. Rodríguez, Cuestión de supervivencia. Graduación, deserción y rezago en la Universidad Nacional de Colombia. Bogotá: Unibiblos, 2007. [3] E. Cárdenas, “Estudio de la deserción estudiantil en programas de ingeniería en la Universidad Nacional de Colombia,” Tesis Magíster Dirección Universitaria, Universidad de los Andes, Bogotá, 1996. [4] S. P. Guzmán, “Deserción y retención estudiantil en los programas de pregrado de la Pontificia Universidad Javeriana,” Bogotá – Colombia, 2009. [5] M. Díaz and V. M. Gómez, “La formación por ciclos en la educación superior,” Bogotá ICFES, 2003. [6] C. A. Pérez and E. L. Cañaveral, “Análisis de la herramienta SPADIES diseñada por el Ministerio de Educación Nacional y el CEDE,” Universidad del Valle, 2008. [7] R. Quintero, “Resumen Ejecutivo Análisis y Causas de Prueba Académica Universidad Distrital Francisco José de Caldas.” Abril-2013. [8] CEDE, “Centro de estudios sobre desarrollo económico: Investigación sobre deserción en las instituciones de educación superior en Colombia,” Universidad de los Andes, 2007. [9] Universidad Nacional de Colombia, “Claves para el debate público. Deserción universitaria. Un flagelo para la educación superior.” Jul-2009. [10] J. G. A. Pautsch, “Minería de datos aplicada al análisis de la deserción en la carrera de Analista en Sistemas de Computación,” Universidad Nacional de Misiones, Argentina, 2009. [11] M. Franco, “Factores que influyen en el ingreso y permanencia de los estudiantes de la universidad de la sabana.,” Universidad de la Sabana, Bogotá, 1991.

Por otra parte la interpretación del conocimiento generado por las redes neuronales artificiales puede ser difícil para los humanos, para lo cual se puede utilizar la representación simbólica, con métodos como la extracción de reglas desde las redes y el análisis de sensitividad . Adicionalmente se visualizan los resultados para el usuario final. Herramientas de minería como RapidMiner y Weka, cuentan con reportes escritos y con gráficas para indicar al usuario los puntos en donde se encontró algo interesante. Se requieren los reportes deben de ser lo más sencillos posibles, de tal manera que el usuario los pueda interpretar sin confundirse entre una gran cantidad de datos. El tipo de reporte depende en gran medida del tipo de técnica empleada para analizar los datos, por lo que también en este aspecto el usuario debe aprender a interpretar los reportes producidos por cada una de ellas, independientemente del conocimiento que tenga sobre el tema de análisis . Por lo anterior el conocimiento obtenido seria representado a través de dos estilos diferentes, un reporte escrito en el que el usuario podría visualizar las respectivas reglas de inducción encontradas y gráficos de distribución de las reglas de inducción encontradas, de igual forma se presenta el desempeño que presento la red neuronal. Adicionalmente se debe proveer una herramienta que permita hacer predicción (clasificar) con un conjunto de datos nuevo. Para esto se implementa un modelo de inferencia que con base en el conocimiento encontrado que permita hacer la validación del conjunto de datos .

166

Tlamati, Número Especial 3 CICOM 2014 [12] J. Rodas, “Un ejercicio de análisis utilizando rough sets en un dominio de educación superior mediante el proceso KDD.” 2001. [13] M. C. Moreno and S. Méndez, “Uso de la Metodología Rough Sets para la identificación de variables críticas influyentes en una base de datos,” Universidad de la Sabana, Bogotá – Colombia, 2007. [14] E. Castaño, S. Gallón, K. Gómez, and J. Vásquez, “Deserción estudiantil universitaria: una aplicación de modelos de duración,” Lect. Econ., vol. 60, no. 60, pp. 39– 65, 2009. [15] D. L. La red Martinez, J. C. Acosta, V. E. Uribe, and A. R. Rambo, “La importancia otorgada al estudio y su relación con el rendimiento académico: un abordaje desde la minería de datos.” 2011. [16] O. Ocaranza and M. Quiroz, “La deserción estudiantil en los programas de pregrado de la ponticia Universidad católica de Valparaíso,” 2005. [17] L. Gonzalez, “Estudio sobre la repitencia y deserción en la educación superior chilena.” 2005. [18] A. Porto and Gresia Di, “Rendimiento de estudiantes universitarios y sus determinantes. Asociación Argentina de economía política.” Nov-2001. [19] E. Porcel, G. Dapozo, and M. V. López, “Modelos predictivos y técnicas de minería de datos para la identificación de factores asociados al rendimiento académico de alumnos universitarios.,” 2008. [20] E. Castaño, S. Gallón, K. Gómez, and J. Vásquez, “Análisis de los factores asociados a la deserción estudiantil en la Educación Superior: un estudio de caso,” 2008. [21] S. Haykin, Neural networks: a comprehensive foundation. Prentice Hall PTR, 1994. [22] P. Isasi and I. Galván, Redes neuronales artificiales–un enfoque práctico. Madrid: Pearson-Prentice Hall, 2004. [23] M. B. Musoles and R. P. Medina, “Análisis de las redes neuronales: Aplicación a problemas de predicción y clasificación financiera.” 1997. [24] C. Z. Matamala, D. R. Díaz, K. C. Cuello, and G. A. Leiva, “Análisis de rendimiento académico estudiantil usando data warehouse y redes neuronales,” Revista chilena de ingeniería, vol. 19, no. 3, 2011, 2011. [25] M. Pinninghoff Junemann, P. Salcedo Lagos, and R. Contreras Arriagada, “Neural Networks to Predict Schooling Failure/Success,” Nat. Inspired Probl.-Solving Methods Knowl. Eng., pp. 571–579, 2007. [26] Z. Cataldi, F. Salgueiro, and F. J. Lage, “Predicción del rendimiento de los estudiantes y diagnóstico usando redes neuronales,” enseñanza, vol. 14, p. 15, 2006.

[27] H. E. P. Ávila and A. F. G. Galeano, “Sistema de información de gestión de procesos académicos apoyado con redes neuronales artificiales,” Popular del Cesar, Valledupar, 2011. [28] C. Z. Matamala, D. R. D. K. C. Cuello, and G. A. Leiva, “Análisis de rendimiento académico estudiantil usando data warehouse y redes neuronales,” Ingeniare Rev. Chil. Ing., vol. 19, no. 3, pp. 369–381, 2011. [29] V. Tinto, “Stages of Student Departure: Reflections on the Longitudinal Character of Student Leaving,” J. High. Educ., vol. 59, no. 4, p. 438, Jul. 1988. [30] V. Tinto, “Limits of Theory and Practice in Student Attrition,” J. High. Educ., vol. 53, no. 6, p. 687, Nov. 1982. [31] R. O. Duda and E. H. Shortliffe, “Expert systems research,” Science, vol. 220, no. 4594, pp. 261–268, 1983. [32] J. D. A. Suárez, “Técnicas de inteligencia artificial aplicadas al análisis de la solvencia empresarial,” Universidad de Oviedo, 2000. [33] C. E. Brown and D. E. O’Leary, Introduction to Artificial Intelligence and Expert Systems. 1995. [34] M. Minsky and P. Seymour, Perceptrons. Oxford, England: M.I.T. Press, 1969. [35] B. Martín del Brío and A. Sanz Molina, Redes Neuronales y Sistemas Borrosos. 3a Edición. México: Alfaomega Ra-Ma, 2007. [36] G. Lastre Lastre and L. Castro Perez, “Diseño e implementación de una red neuronal para la inserción de reglas en sistemas difusos,” Corporación universitaria Rafael Núñez, Cartagena de Indias, 2006. [37] J. Hernandez Orallo, M. J. Ramirez Quintana, and C. Ferri Ramirez, Introducción a la minería de datos. Madrid: Pearson Prentice Hall, 2004. [38] W. Santamaría Ruíz, “Modelo de detección de fraude basado en el descubrimiento simbólico de reglas de clasificación extraídas de una red neuronal,” Universidad Nacional de Colombia, 2010. [39] J. E. Rodríguez Rodríguez, Fundamentos de minería de datos. Bogotá – Colombia, 2010. [40] Erwin Sergio Fischer Angulo, “Modelo Para La Automatización Del Proceso De Determinación De Riesgo De Deserción En Estudiantes Universitarios,” Universidad de Chile, Chile, 2012.

167

Tlamati, Número Especial 3 CICOM 2014

Redes de aprendizaje en la educación a distancia basadas en la descentralización de la información Javier Albadán Romero

Verónica Suárez Molina

Carrera 13 No. 65-10 057-1- 5461500

Calle 81B No. 72B-70 057-1-2916520 ext 6117

[emailprotected]

[emailprotected] en dos componentes: un trabajo autónomo, desescolarizado, y otro componente de trabajo colaborativo entre los estudiantes, lo que pretende dinamizar la relación de los actores participantes del sistema de gestión de aprendizaje.

RESUMEN En este artículo se pretende realizar una aproximación conceptual sobre las condiciones actuales de la intervención del crowdsourcing en organizaciones del sector educativo que trabajan bajo el modelo de educación a distancia y enfocan su modelo de formación bajo la constitución de redes de aprendizaje. En este sentido, es necesario superar la visión enfocada en la concepción de una estrategia y centrarse en la estructuración del crowdsourcing como una filosofía de trabajo que se caracteriza por la colaboración abierta y distribuida, y es empleado por comunidades de aprendizaje, que pretenden desarrollar un sistema que es configurado por una gran red de colaboradores que al estar intercomunicados entre sí, generan aportes para consolidar un recurso informático como bien común, lo que indiscutiblemente implica realizar una revisión conceptual del término, su relación con la gestión de la información y la gestión de conocimiento, y su aplicación en el contexto educativo.

Existen diferentes incentivos por los que un estudiante puede ser motivado a ser partícipe frecuente de la red de aprendizaje, así como toda una serie de restricciones y roles establecidos que demarcan la vía en que se llevará a cabo toda la gestión de la información del sistema. A su vez, las instituciones pretenden generar la sensación de cercanía al punto de posibilitar que cada individuo sea participe en la toma de decisiones en el desarrollo de las actividades académicas. En este sentido, la pertinencia del crowdsourcing en las instituciones educativas no sólo se estructura como una filosofía de trabajo que permite la eficiencia de las actividades, y el alcance de logros comunes, sino que a su vez posibilita ofrecer un modelo de aprendizaje y calidad educativa, que es mediada por las tecnologías de la información y permite la integración de múltiples usuarios que comparten información y construyen conocimiento.

Palabras Clave Educación a distancia, red de aprendizaje, descentralización de la información, crowdsourcing, gestión de información.

Este artículo es una propuesta para la implementación de un modelo de aprendizaje basado la descentralización de la gestión de la información y demás recursos, en una institución de educación a distancia que tenga constituida una red de aprendizaje. Esa descentralización es una de las características del crowdsourcing que es la noción central de este estudio. Para este objetivo se aborda en la fase inicial de la investigación el desarrollo conceptual y contextualización, seguido por la caracterización de los procesos en la gestión de la información y gestión del conocimiento para finalizar con las ventajas de la aplicación de este trabajo en ambientes educativos.

1. INTRODUCCIÓN Las instituciones que ofrecen educación a distancia concentran la gestión de sus procesos académicos en el uso de las tecnologías de la información que han potencializado las formas de interacción, de comunicación y de transmisión de datos, y han promovido la implementación de nuevas estrategias para la obtención de la información en la red. En estos casos, el modelo educativo se basa El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

2. DESCENTRALIZACIÓN DE LA INFORMACIÓN El notable mejoramiento de los recursos informáticos junto con la burbuja tecnológica del siglo XXI promueven nuevas interacciones del trabajo en comunidad siendo el crowdsourcing una de esas modalidades. Autores que han abordado estudios sobre la inteligencia de las multitudes, la inteligencia colectiva, la descentralización de la información y el trabajo colaborativo afirman que éstos como fenómenos

4to. Congreso Internacional de Computación CICOM 2014, Octubre 24, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de GuerreroACM

168

Tlamati, Número Especial 3 CICOM 2014 grandes cantidades de información, y como ya se ha expuesto anteriormente, aquellas condiciones particulares que configuran un escenario enmarcado por el crowdsourcing implican un trabajo colectivo, tal como es expuesto en [4]“Internet y el conjunto de los nuevos medios de comunicación digital han posibilitado la irrupción revolucionaria en la escena contemporánea de una cultura de autoproducción y producción colaborativa en red, esto es, la capacidad de desarrollar creaciones y producciones culturales de forma colectiva, anónima y transnacional."

sociales implican potenciales beneficios en las interacciones humanas a partir de la concepción de un grupo como un todo, sentidos de pertenencia, integración, confianza y la buena causa están estrechamente relacionados. Desde esta perspectiva, [1]establece el crowdsourcing como la combinación del concepto outsourcing (externalización) con el concepto de la inteligencia de las multitudes. Howe es considerado uno de los primeros autores en concebir los inicios formales del crowdsourcing y lo define como: “El acto de tomar una tarea desarrollada tradicionalmente por un agente designado previamente, y externalizarla a, generalmente, un gran grupo de personas como si fuera una convocatoria abierta.”

Cuando se hace referencia en este artículo a la gestión de la información, se vincula implícitamente los medios digitales y el mundo de internet como vía y medio de comunicación. Ahora bien, para abordar el concepto de gestión de información, se procederá a desglosar cada concepto por separado para luego enlazarlos y obtener así un acercamiento conceptual más preciso.

En un proyecto de tipo crowdsourcing la interacción social es dada en la medida en que todos los recursos informáticos van siendo construidos por los usuarios colaboradores, el conocimiento individual es publicado, compartido, corregido, procesado, enriquecido y evaluado por la misma comunidad [2]. Un acercamiento interesante que complementa esta perspectiva sobre el crowdsourcing es dado en [3]: “Con Internet, la sociedad ha descubierto la posibilidad de desarrollar proyectos colaborativos a gran escala basados en la participación de gran número de organizaciones o individuos que trabajan conjuntamente, pero de manera descentralizada, y esto constituye un creciente semillero de innovación.”

Según [5]el término de gestión está relacionado con todas aquellas actividades que son coordinadas con el objetivo de dirigir y controlar una organización. Dentro de las prácticas organizativas, la gestión se establece a partir de múltiples actividades de decisión que tienen lugar dentro de una organización y a su vez, es aplicada como un conjunto de procedimientos para la administración de recursos [6]. “Gestionar es hacer que las decisiones se ejecuten”, los tramites que se ejecutan se realizan con base a unos resultados proyectados, luego se estructuran en propuestas teóricas que determinan el uso de reglas, procedimientos y tareas con el fin de lograr la eficacia en las actividades y en los objetivos de la organización [6].

Al ahondar sobre las características del crowdsourcing en un proyecto se deben considerar cuatro elementos claves según Howe: Un gran grupo de colaboradores, un coordinador y un medio para mantener interconectados a todos los colaboradores sin importar su ubicación física, lo cual desde luego es Internet, y una concepción comunitaria de los bienes culturales en la sociedad red. Todo esto para que se pueda pensar en que el sistema llegue a tener éxito. [4]

La noción de información es bastante amplia debido a la importancia que tiene y representa para el ser humano. En [7] se determina que la información es un término impreciso debido al uso que comúnmente se le ha otorgado, sin embargo, el uso del término en el ámbito de los SI (Sistemas de Información), corrige o confirma la información previa, o en otras ocasiones se manifiesta al receptor como sorpresa, puesto que el receptor no necesariamente puede predecir lo que va a recibir, por tanto, la información tiene la capacidad de reducir la incertidumbre.

En cuanto a los conceptos que deben regir sobre un sistema bajo filosofía de crowdsourcing se deben contemplar ciertos factores que desde su arquitectura determine el diseño de un sistema que garantice transparencia, procesos sincrónicos y robustez para llevar a cabo sus tareas. Las principales características son: Transparencia: Todos los usuarios del sistema deben ser informados y se les debe mantener en constante actualización sin importar la fuente de los recursos, de la información y el lugar donde son administrados y gestionados, todo debe aparecer como un solo sistema.

Ahora bien, es necesario recopilar varias definiciones que son susceptibles de ser tenidas en cuenta y a partir de ellas poder tomar algunas en especial como punto de referencia para así determinar con mayor precisión que nociones están involucradas en cuanto al término información con el concepto de crowdsourcing. En [8]se define el concepto de información desde diferentes perspectivas como se presenta a continuación (la numeración no establece orden, importancia o jerarquía alguna):

Participación: Cada integrante de la comunidad debe tener la posibilidad de intervenir y generar sus propios aportes al sistema. Colaboración: Adicional a la participación atómica de cada individuo, se debe incentivar la publicación, evaluación y acompañamiento entre los usuarios.

Es inherente al ser humano

El principio para la formación del conocimiento

Libertad: Procurar que el contenido que se consolida como resultado del trabajo colaborativo sea distribuido y que llegue al mayor número de usuario finales posibles.

Primer elemento para llegar a la ciencia, por medio de la investigación

La guiadora del método científico

Fenómeno que se produce en nuestro ámbito de relaciones

La modificadora, consciente o inconsciente, del estado de evolución del cerebro

3. GESTIÓN DE LA INFORMACIÓN Al concentrar el estudio en la comunicación e interacción entre multitudes de personas en la web, se hace implícito hablar de 169

Tlamati, Número Especial 3 CICOM 2014 •

El proceso por el que se ponen datos en situación de ser utilizados

El instrumento de poder, y

La materia prima en procesos creativos

que se puede concebir como gestión de la información, en el momento de implementar o actuar bajo una filosofía de trabajo de colaboración abierta y distribuida. Esto es, que los colaboradores son aquellos que necesitan la información y quienes adquieren la información, finalmente, ellos mismos harán uso de la información luego de ser procesada y/o transformada por ciertos productos y servicios y que adicionalmente sea distribuida en el mismo medio. Y es así, como los colaboradores de un sistema crowdsourcing, serán los encargados de la gestión de la información.

De estas múltiples conceptualizaciones de información, todas de notable importancia, son de resaltar para éste caso la definición número 2, 5, 7 y 9. Las cuales tienen una estrecha relación con los conceptos de que se vienen abordando alrededor del crowdsourcing. En cuanto a la noción de gestión de la información, como una sola unidad, particularmente en las organizaciones tiene el objetivo principal de aprovechar los recursos de información de la organización con el fin de permitir su adaptación al entorno cambiante. La gestión de información, comprende todas aquellas actividades que se encuentran relacionadas con la obtención de información adecuada y precisa, a un buen costo, tiempo y lugar para tomar la mejor decisión [5].

4. GESTIÓN DEL CONOCIMIENTO En [10] los cambios sociales y tecnológicos que se han generado en el escenario de la globalización han obligado a que las organizaciones prioricen la necesidad de mejorar su capacidad de gestión y competitividad para responder al desarrollo de procesos complejos de aprendizaje y construcción de conocimiento nuevo. Así mismo [11] afirma que existe como línea emergente en los sistemas y específicamente en el campo de las actividades profesionales que se basan en crear, recopilar, organizar y transmitir el conocimiento de una organización, los sistemas de gestión del conocimiento; éstos sistemas se establecen dentro de las instituciones como entes fundamentales para la construcción del conocimiento y su desarrollo y manipulación en el entorno mismo de la organización. Desde esta perspectiva es pertinente mencionar que la gestión del conocimiento implica valor a través del capital intelectual, se fundamenta principalmente en pilares como los recursos humanos, los cuales permiten la creación de valor de bienes e intangibles y a su vez, aumentan la competitividad de la empresa; para lograrlo y consolidar los procesos se relaciona con la gestión de la información y la gestión documental a fin de aprovechar todos los recursos de la organización, ya que la maximización del valor surge de, el conocimiento de clientes, trabajadores y colaboradores, además de sus funciones al recoger información, difundirla, sintetizarla sacar conclusiones, definir métodos y fijar la cultura institucional, permitiendo localizar, organizar, transferir y hacer uso eficiente de la información. [6]

Desde la perspectiva expuesta en [9] la gestión de la información se establece como: Proceso mediante el cual se obtienen, despliegan o utilizan recursos básicos (económicos, físicos, humanos, materiales) para manejar información dentro y para la sociedad a la que sirve. Tiene como elemento básico la gestión del ciclo de vida de este recurso y ocurre en cualquier organización. Es propia también de unidades especializadas que manejan este recurso en forma intensiva, llamadas unidades de información. Según (Choo, 1995) citado en [6]para abordar el ciclo de la gestión de información, éste debe ser estructurado a partir de procesos, luego se debe formalizar la cadena de valor, teniendo en cuenta las siguientes etapas, como se muestra en la figura 1: identificación de necesidades de información, adquisición, organización, almacenamiento, elaboración de productos y prestación de servicios, distribución y uso de la información.

Las empresas de hoy en día requieren herramientas que le permitan incorporar los conocimientos construidos dentro de la organización en relación con sus clientes, y a su vez los conocimientos que son generados por el capital humano que brinda valor agregado a la organización. Sin embargo es necesario tener encuenta que antes de gestionar el conocimiento, es pertinente vincular estrategias que permitan gestionar la información de una empresa [12]. Particularmente, En las instituciones educativas el trabajo colaborativo posibilita el desarrollo de mejores resultados en los procesos, sin embargo visualizar que un saber construido en común es mucho más que el individual y que la manera de obtenerlo surge únicamente del trabajo en equipo, no es suficiente, por tal motivo es importante gestionar el conocimiento, es decir, facilitar que todo lo que se conoce pueda ser compartido, y de ésta forma enriquecer a todos los compañeros y a la institución educativa creando mecanismos y estructuras internas que lo faciliten. En las organizaciones educativas la función de los sistemas de gestión del conocimiento y particularmente los sistemas de soporte de

Figura 1. Ciclo de Gestión de Información. Fuente: Adaptado de (Choo, 1995) Citado por (Gauchi, 2012) (p.541.)

Haciendo un paralelo con el tema principal de este escrito, se pueden encontrar en esta figura las acciones concretas de lo 170

Tlamati, Número Especial 3 CICOM 2014 que representa la implementación del crowdsourcing en contextos educativos, resultando concepciones como:

decisión (DSS), está dirigida a la toma de decisiones, la cual dentro de sus objetivos están mejorar la calidad de la educación, la investigación, recopilar información útil a partir de una recopilación de datos en bruto, para identificar y resolver problemas. Éste proceso en las instituciones de educación superior debe ser planificado, y resuelto de forma integral, confiable y transparente [13].

Participación de estudiantes en el desarrollo y gestión de conocimiento. Diseño de actividades. Calificación de resultados por estudiantes. Generación de perfiles de estudiantes.

5. DESCENTRALIZACION DE LA INFORMACIÓN EN REDES DE APRENDIZAJE

Soporte (asesoría) estudiante a estudiante. La aplicación del crowdsourcing genera otras connotaciones como la integración de diversos saberes en una red de aprendizaje y la participación en la toma de decisiones durante el desarrollo de actividades y proyectos. Esto posibilita concebirlo como una modalidad de aprendizaje a partir de la explotación de las ventajas de la inteligencia de las multitudes y el trabajo abierto y colaborativo.

En términos generales el trabajo colaborativo y la descentralización de la gestión de la información y demás recursos posibilita la satisfacción de demandas tan específicas que se atienden esas particularidades de un segmento específico de individuos que pertenece a la red [14]. Se menciona que esta modalidad de interacción en una red de trabajo ha influenciado principalmente el mundo de los negocios, el periodismo y las industrias creativas. Sin embargo, el ámbito educativo se erige como un contexto donde la implementación del crowdsourcing como filosofía de trabajo presenta grandes potencialidades. Como se menciona en [15], los colaboradores que constituirán el núcleo del sistema pueden ser invitados a desarrollar una nueva tecnología, llevar a cabo actividades de diseño, perfeccionar o efectuar los pasos de un algoritmo, o ayudar a obtener, sistematizar o analizar grandes cantidades de datos (de ciencia ciudadana).

6. CONCLUSIONES Aunque las dinámicas de trabajo colaborativo se remontan a los inicios de la especie humana, en la actualidad y apoyado por la burbuja tecnológica se evidencia el interés por incursionar y aplicar este tipo de filosofías de trabajo de colaboración abierta y distribuida en múltiples áreas de contexto empresarial y educativo. El crowdsourcing presenta potencialidades concretas que tal vez un sistema con la gestión de la información centralizada, no pudiese prestar. La interacción entre usuarios, los juicios evaluativos y de aporte que se promueven, el incentivo hacia la apropiación de los recursos, la descentralización de quién posee la información, el momento en que es proveída y la forma de distribuirla, son ventajas que se logran concretizar en un sistema crowdsourcing, que en su aplicación formal en ambientes educativos posibilitan y gestionan la creación de comunidades de aprendizaje que comparten intereses similares y actúan en grupos colectivos con una misma proyección, orientada a la gestión de conocimiento, y la resolución de situaciones problema en diferentes contextos.

Adicional a la contextualización se brinda una propiedad atractiva que tienen los sistemas que funcionan bajo la filosofía del trabajo colaborativo de las multitudes o crowdsourcing, y es la innovación. Esto se hace evidente en [16] en donde se menciona que el crowdsourcing no solamente es una palabra de moda de la web 2.0, sino que va más allá y se consolida como un modelo estratégico para atraer una multitud, interesada y motivada, de individuos capaces de proveer soluciones superiores en calidad y cantidad que las ya tradicionales formas que toda empresa puede llevar a cabo. Algunas aplicaciones y ejemplos de sistemas de tipo crowdsourcing son mencionados en [17], donde se evidencia la correspondencia de algunos elementos con su uso en ambientes educativos: •

Participación de clientes en el desarrollo y gestión de productos.

Diseño de productos.

Ofertas competitivas en tareas o problemas específicos.

Convocatorias permanentes.

Calificación de productos por clientes.

Generación de perfiles de clientes.

Reportes en comunidad.

Soporte cliente a cliente

El marco conceptual anteriormente expuesto tiene el objetivo de dar inicio a la explicación de los elementos que estructuran un sistema crowdsourcing, con la finalidad de teorizar y argumentar los procesos de conocimiento internos que se dan en instituciones de educación a distancia, en la transformación de los datos a información de valor, el aprendizaje de sus influyentes en los procesos y la competitividad que tengan este tipo de organizaciones, con el fin de lograr mayor eficiencia en los procesos, y a su vez, en los métodos que emplee para la toma de decisiones. Lo anterior, teniendo en cuenta principalmente la adaptación cultural de estos sistemas en la institución, la interacción de los miembros que actúan dentro y fuera de ella, en sus diferentes roles con el sistema, y las condiciones propias del entorno que restringe su desarrollo. Es pertinente para la continuidad de esta investigación reconocer que el crowdsourcing es una filosofía de trabajo que se adopta en instituciones de educación abierta y a distancia o con modalidad semipresencial, debido a la facilidad para potenciar procesos de aprendizaje e interacción en los estudiantes, de ahí el objeto de este trabajo en caracterizar

De estos elementos algunos no requieren variar para notar su cercanía al entorno educativo, no obstante, si se modifican ciertos términos en los demás ítems, se evidencia lo pertinente 171

Tlamati, Número Especial 3 CICOM 2014 estas ventajas pues se pretende implementar por parte de los autores en una institución de educación a distancia incursionando el crowdsourcing en su modelo de aprendizaje educativo como herramienta primordial para el desarrollo de competencias en los estudiantes.

[9] G. Pojuan, Gestión de información: Dimensiones e implementación para el éxito organizacional, Madrid. España: Ediciones Trea, S.L., 2004.

7. REFERENCIAS

[11] S. Barnes, Sistemas de Gestión del Conocimiento. Teoría y Práctica (A. Bravo, S. Díaz, L. Estecha, A. Gálvez, E. S. José & E. Sánhez-Pinto, Trans), Madrid: International Thomson Editores Spain Pranifo S.A., 2002.

[10] C. Fajardo, «Gestión y creación del conocimiento.,» Innovar, revista de ciencias administrativas y sociales, vol. 23, pp. 13-2, 2004.

[1] J. Howe, «The rise of crowdsourcing,» Wired magazine, vol. 14, nº 6, pp. 1-4, 2006.

[12] M. D. Gil-Montelongo, G. López-Orozco, C. Molina-García y C. A. Bolio-Yris, «Gestión del conocimiento. La gestión de la información como base de una iniciativa de gestión del conocimiento.,» Ingeniería Industrial, vol. XXXII (3), pp. 231-237, 2011.

[2] D. Schuurman, B. Baccarne, L. De Marez y P. Mechant, «Smart Ideas for Smart Cities: Investigating Crowdsourcing for Generating and Selecting Ideas for ICT Innovation in a City Context,» Journal of Theoretical and Applied Electronic Commerce Research, vol. 7, pp. 49-62, 2012.

[13] A. Tsolakidis, C. Sgouropoulou, E. Papageourgiou, O. Terraz y G. Miaoulis, «Institutional Research Management Using an Integrated Information System,» Elsevier, vol. 73, pp. 518525, 2013.

[3] I. Alonso de Magdaleno y J. García García, «Crowdsourcing as a methodology in the fight against malaria,» Facultad de Economía y Empresa, Universidad de Oviedo, 2012. [4] F. D. Martínez y J. Alberich, «Plataformas y proyectos de Crowdsourcing,» Historia y Comunicación Social, vol. 18, nº Esp. Octubre, pp. 85-95, 2013.

[14] F. Garrigos-Simon, Y. Narangajavana, T. Barbera-Ribera y S. Estelles-Miguel, «Participation throughout the crowd. The importance of crowdsourcing,» 6th International Conference on Industrial Engineering and Industrial Management, pp. 661-666, 2012.

[5] L. Aja Quiroga, «Gestión de información, gestión del conocimiento y gestión de la calidad en las organizaciones,» ACIMED, nº 10, pp. 7-8, 2002.

[15] R. Holley, «D-Lib Magazine,» Marzo/Abril 2010. [En línea]. Available: http://www.dlib.org/dlib/march10/holley/03holley.html. [Último acceso: 11 04 2014].

[6] V. Gauchi, «Aproximación teórica a la relación entre los términos gestión documental, gestión de información y gestión del conocimiento,» Revista Española de Documentación Científica, vol. 4, nº 35, pp. 531-554, 2012.

[16] D. C. Brabham, «Crowdsourcing as a Model for Problem Solving. An Introduction and,» Convergence: The International Journal of Research into New Media Technologies, vol. 1, nº 14, p. 75–90, 2008.

[7] G. B. Davis y M. H. Olson, Management Information Systems, México: McGraw-Hill, 1989. [8] E. Currás, «Caos y Orden en la Organización del Conocimiento,» Organización del Conocimiento en Sistemas de Información y Documentación. Universidad Atónoma de Madrid, nº 2, pp. 13-37, 1997.

[17] F. Kleemann, G. G. Voß y K. Rieder, «Un(der)paid Innovators: The Commercial Utilization of Consumer Work through Crowdsourcing,» Science, Technology & Innovation Studies, vol. 4, nº 1, pp. 5-26, 2008.

172

Tlamati, Número Especial 3 CICOM 2014

Entornos virtuales de enseñanza-aprendizaje (VLE/EVA) en el Nivel Medio Superior de la UAGro Gabriel Sandoval Nava

Rene Edmundo Cuevas Valencia

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero.

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero. [emailprotected]

[emailprotected]

sistema nacional de educación, el Plan Nacional de Desarrollo 2007-2012 establece como impostergable la formación de estudiantes con capacidades o competencias que les posibiliten terminar una carrera profesional, desempeñarse exitosamente en el mercado laboral e incidir en el desarrollo del país. El mismo plan establece como indispensable rediseñar los planes de estudio en los distintos tipos educativos, respetando las orientaciones filosóficas, pedagógicas y didácticas de las instituciones que los ofrecen.

RESUMEN Al inicio de la tecnología informática y todo lo que ello representa, no fue diseñado y aplicado a los ambientes enseñanzaaprendizaje, las instituciones encargadas de la educación en todo el mundo, de manera escalonada, han acogido y adaptado ésa tecnología a varios de sus procesos escolares a fin de hacer más fácil e innovadora la manera de impartir conocimientos nuevos en los educandos en todos los niveles conocidos en cada país, por ello ahora es casi indispensable el uso de las conocidas Tecnologias de la Información y Comunicación (TIC) en el funcionamiento de una escuela; hoy día varias empresas e instituciones basan su metodología enseñanza-aprendizaje en Entornos Virtuales de Aprendizaje (EVA) o VLE Virtual Learning Environment en inglés, el cuál es software diseñado especialmente como un suplemento auxiliar creando un espacio para utilizarlo por profesores y alumnos para llevar a cabo las actividades escolares diarias utilizando las TIC en las escuelas del Nivel Medio Superior (Preparatorias) dependientes de la Universidad Autónoma de Guerrero UAGro deben adoptar un Entorno Virtual de Enseñanza en su funcionamiento.

En el caso de la Educación Media Superior (EMS), existen modalidades con planes de estudios diferentes que forman estudiantes con perfiles también diversos. En este sentido, con el propósito de darle identidad a la EMS, la Secretaría de Educación Pública impulsa la creación del Sistema Nacional del Bachillerato (SNB), a partir de la aportación de expertos nacionales de EMS y de otros tipos educativos 1 El nivel medio superior de la Universidad Autónoma de Guerrero (preparatorias) ha tenido varias transformaciones en su Plan y Programas de Estudio, en la década de los 70´s se tenía más de un Plan de Estudios, lo que era caótico al momento de posicionar a los profesores, alumnos, libros e incluso la administración de los mismos; con el paso del tiempo a partir de 1970 se dieron tres importantes Reformas a los planes (1971, 1974, 1981) y los Congresos Universitarios de 1985, 1989, 2000, 2006, tratando de unificar esto y siendo la última reforma para el plan de estudios 20102 con el cual se intenta ingresar dicho Nivel Medio Superior al Sistema Nacional de Bachillerato propuesto por la SEP y para lo cual cada Unidad Académica de la UAGro debe cumplir con los requisitos de la Reforma Integral de la Educación Media Superior (RIEMS).

Palabras Clave: Ambientes Virtuales, MOODLE, DOKEOS, WEB2.0, TIC, SNB, RIEMS.

1. INTRODUCCIÓN En México, con el objeto de hacer frente a los cambios en el El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

Por lo anterior profesores e instituciones de la UAGro se ven involucrados a integrar en sus Planes y Programas de Estudio el uso de las Competencias que marca el SNB y aplicarlos en las aulas; sin embargo por la ubicación geográfica y condiciones particulares de las Unidades Académicas y los perfiles de los docentes se hace difícil de homogenizar las actividades escolares y por consiguiente las competencias que deben adquirir los egresados de éste nivel educativo.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de GuerreroACM

Una manera de afrontar esta problemática es utilizando un marco que sirva como orientador a los docentes y escuelas para dirigir en 173

Tlamati, Número Especial 3 CICOM 2014 tradicionales por considerarla innecesaria, desconfiable y sobre todo sentir un desplazamiento al trabajo que ellos venían realizando, la segunda fue la casi nula capacitación y/o uso de dispositivos tecnológicos por parte de los profesores en ese entonces4.

un mismo camino el proceso enseñanza-aprendizaje sin olvidar introducir las características propias de los actores principales en cada institución así como también los entornos en que éstos se desenvuelven. El uso de un Entorno Virtual de Aprendizaje (EVA) para todas las unidades académicas de la UAGro viene a resolver en gran medida la problemática presentada, teniendo en cuenta que para ello tal software debe adecuarse a las características de cada institución así como tener la adecuada capacitación de los docentes para un uso efectivo, si no fuera así los intentos y/o resultados obtenidos serían contraproducentes, se mostraría un retroceso en lugar de un avance.

Pero al ir pasando el tiempo esas dos resistencias fueron desapareciendo al ir demostrándose que el cambio de los modelos educativos tradicionales era algo necesario y que apuntaba a una mejora para dotar de conocimientos a los estudiantes e ir involucrando por igual alumnos y profesores en el uso de las herramientas informáticas. Una vez que hubo aceptación para utilizar las TIC´s en el aula, se fue popularizando la Educación en Línea, haciendo uso del internet y sus características fue posible ofrecer estudios para aquellas personas que por su situación geográfica o simplemente por falta de tiempo y/o recursos no podían asistir a un centro escolar, y podían realizar sus estudios.

2. ENTORNOS VIRTUALES DE ENSEÑANZA 2.1 Entornos Enseñanza-Aprendizaje

Para ello se utilizan varios recursos disponibles en la red como plataformas en línea, correo electrónico, páginas, foros, videoconferencias, mensajería instantánea, etc.

Un Entorno de Enseñanza-Aprendizaje no es otra cosa que la distribución y disposición de los espacios, materiales didácticos e incluso el personal que actúa en éstos ambientes; todo ello con la finalidad de tener las condiciones idóneas para posibilitar el aprendizaje, se contempla entre otras cosas: •

Condiciones materiales

Acondicionamiento de espacios.

Organización y acceso a los materiales y espacios.

Reglas de comportamiento.

Relaciones interpersonales entre alumno-alumno y alumno-profesor.

Actividades que promueven el aprendizaje3.

Cabe mencionar que en este artículo no se ahondará en el uso de educación en línea, aunque éstos son muy similares e incluso pueden coexistir con los Entornos Virtuales de Aprendizaje, no es tema de estudio en esta ocasión pero si es necesario mencionar que difieren en algunos puntos.

2.3 Entornos Virtuales de Aprendizaje Una forma de adecuar el proceso de aprendizaje y hacer interesante a los estudiantes la asimilación de conocimiento es sumergirlos en un mundo electrónico paralelo al entorno físico escolar que funcione como un complemento en las actividades escolares donde puedan interactuar con sus compañeros, con los profesores e incluso con estudiantes de otros centros o universidades en tiempo real o en actividades extra clase.

Lo anterior existió y existe en las instituciones educativas que existen en México, conocido como un modelo de aula o escuela tradicional y que desde que se conoce el proceso de enseñanzaaprendizaje escolar fue la única manera de preparar alumnos de casi todos los niveles, logrando en gran parte los objetivos que se trazaban y la intención para los que existían dichos entornos.

Los Entornos Virtuales de Aprendizaje tienen como mínimo las siguientes características.

Con el paso del tiempo emergen nuevas formas de comunicación y aparecen múltiples maneras de obtener información utilizando la tecnología; además de otros tantos distractores electrónicos y sociales en los estudiantes adolescentes, el uso de los entornos tradicionales se van haciendo difíciles de accesar y asimilar y en muchos casos se consideran como antiguos y “aburridos”; ello nos lleva a reflexionar y buscar nuevas metodologías de enseñanza donde se haga uso de las TIC.

Espacios para la comunicación entre los educandos, los educandos con los profesores ya sea de manera personal o grupal.

Espacios para la interacción y actividad social.

Acceso a la información en o desde cualquier sitio , así como también la distribución de la misma5.

Herramientas administrativas para consultar los niveles o estatus en que se encuentra cada actor.

En la actualidad existen varias instituciones que han adoptado en sus planes y programas los EVA, siendo algunos los siguientes:

2.2 El uso de las Tecnologías de Información y Comunicación (TIC) en la educación.

• • • • • • • • •

Inicialmente se utilizaban herramientas informáticas como apoyo en el aula para dar más interactividad a las exposiciones, conferencias, demostraciones, etc., y así hacer más interesante las clases. El uso de las TIC en los procesos educativos se encontró con la primera “resistencia” natural: la no aceptación de los profesores 174

Campus TeleAprendizaje Blackboard Bodington Claroline eCollege Moodle redAlumnos (Website) VClass6

Tlamati, Número Especial 3 CICOM 2014

3. SITUACIÓN ACTUAL DEL NIVEL MEDIO SUPERIOR DE LA UAGro.

3.2 Estatus de las U.A. de la UAGro que utilizan una plataforma virtual

El modelo curricular del NMS de la Universidad Autónoma de Guerrero ha sufrido desde hace algunos años reformas para adaptarse a los cambios nacionales e internacionales en lo que a educación se refiere; últimamente y tratando de adaptarse a la Reforma Integral de la Educación Media Superior (RIEMS) realizó la última reforma en la que presenta un Modelo Curricular de Bachillerato enfocado en competencias, visualizando su ingreso al Sistema Nacional de Bachillerato (SNB) impulsado por la SEP para dar identidad a la EMS7.

Existen algunas U.A. de nivel medio superior y superior e incluso algunas dependencias de la UAGro que hoy en día utilizan alguna plataforma virtual aunque no lo hacen de manera institucional, se presentan en la siguiente tabla:

Éste enfoque del Modelo Curricular llamado por Competencias, vislumbra un conjunto de características homogéneas deseables en los egresados de las Unidades Académicas de la UAGro y que son indispensables para continuar con sus estudios profesionales o bien, para ingresar al campo laboral con mejores condiciones puesto que llevan una mejor preparación académica, actitudinal y aptitudinal.

3.1 ¿Por qué utilizar un Entorno Virtual en las U.A. del NMS de la UAGro?. En el Modelo Educativo 2014 presentado por la Comisión General de Reforma Universitaria de la UAGo se menciona que en las Unidades de Aprendizaje se deben crear nuevos ambientes de aprendizaje que estén centradas en el aprendizaje, fomenten el desarrollo de la autonomía, propicien aprendizaje significativo, coadyuven en la construcción de adecuados ambientes de aprendizaje y promuevan el uso adecuado e intensivo de las nuevas tecnologías7.

FUENTE: Garduño Teliz Elvia, El Aprendizaje virtual en la UAGro: Experiencias y retos,

La implementación de las Competencias en los Planes y Programas de estudio en las U.A de la UAGro ha sido un proceso lento y en muchos casos nulo.

3.3 Actividades que se deben seguir para implementar los EVA en las diferentes U.A de la UAGro

Dentro del aprendizaje virtual, es posible ubicar diferentes paradigmas, modelos y metodologías para lograr propósitos, objetivos y desarrollar competencias en los estudiantes haciendo uso de una gran variedad de herramientas.

Esta parte es de vital importancia pues identifica aquellas entidades que tendrían que ser los responsables directa e indirectamente en el diseño, implementación y adecuación de los recursos humanos, financieros y materiales para que pueda llevarse a cabo éste proyecto y los resultados obtenidos sean los esperados.

Actualmente las universidades públicas y privadas del país están haciendo uso de las plataformas de ambientes educativos virtual como un recurso factible para promover el aprendizaje virtual y complementar las clases presenciales ; sin embargo en la UAGro esto ha sido una tarea pendiente que la ha rezagado del rápido avance del uso de las Tecnologías de Información y Comunicación8.

En primer lugar se debe planear y diseñar el proyecto, tomando en cuenta todos y cada una de los detalles sobre el mismo, para ello se nombra un equipo de trabajo y puede considerarse también documentarse y/o asesorarse con aquellas instituciones que ya se encuentran trabajando con un proyecto parecido para conocer sus experiencias y aprender de ello.

El uso de un Entorno Virtual de Aprendizaje en las U.A. mencionadas vendría a facilitar y homogenizar los conocimientos de los estudiantes en todo el estado y asegurar un el aprendizaje de las competencias de manera común con las únicas diferencias de entornos geográficos particulares en cada caso. Siendo de gran ayuda además para los profesores y su quehacer diario.

En segundo lugar se debe presentar a las primeras personas que tendrían el primer contacto, los profesores que lo usarán; concientizarlos del alcance de dicho proyecto y los beneficios que se tendrían asegura que lo acepten y trabajen de manera conjunta en la capacitación y ejecución del software correctamente.

Al mismo tiempo debe existir también la posibilidad de realizar consultas, reportes, informes e intercambio de los mismos a nivel institucional y personal, ya sea para los profesores y para los estudiantes, lo cual dependerá del alcance que tenga cada usuario.

En tercer lugar se debe hacer un estudio sobre aquellas U.A que presenten las mejores condiciones para ser las primeras instituciones en la implementación del proyecto, lo que puede 175

Tlamati, Número Especial 3 CICOM 2014 servir además como pruebas piloto e identificar los fallos que puedan presentarse y la forma en cómo corregirlos.

agrandar los pasos para colocar a la UAGro dentro de las instituciones de calidad en el país.

Como siguiente punto se supone que ya el sistema se encuentra funcionando correctamente, sólo queda capacitar a los estudiantes para que hagan un uso correcto de él conociendo todas sus funciones para aprovecharlo al máximo y obtener buenos resultados en lo que a aprendizaje se refiere.

5. REFERENCIAS [1] Comisión General de Reforma Universitaria 2010-2014 (CGRU), Plan de Estudios por Competencias 2010, http://cgru.uagro.mx/index.php?option=com_content&view= article&id=18&Itemid=43

Para el correcto funcionamiento y mantenimiento del sistema debe existir un departamento tal como sucede con el SASE para que, además de mantenerlo en óptimas condiciones, sean los encargados de realizar las migraciones y actualizaciones oportunas que permitan avanzar en el uso de éste software e ir encontrando cada vez nuevas formas de usar la tecnología a favor de la educación.

[2] Comisión General de Reforma Universitaria, Plan de Estudios Por Competencias de Educación Media Superior, Febrero 2010, pp. 42 http://cgru.datauagro.org/ems/Plan2010/Plan2010.pdf [3] Diana Patricia Ospina Pineda, U de A., ¿Qué es un ambiente virtual de aprendizaje? http://aprendeenlinea.udea.edu.co/banco/html/ambiente_virtu al_de_aprendizaje

4. CONCLUSIONES

[4] Instituto Nacional de Tecnologías Educativas y del Fomento del Profesorado, Las TIC en el aula: Profesoras y Profesores, http://www.ite.educacion.es/formacion/materiales/112/cd/m7 /las_tic_en_el_aula_profesoras_y_profesores.html

La Universidad Autónoma de Guerrero continua con una etapa de transformación basada en la adquisición de la enseñanza enfocada en competencias, para lo cual es de vital importancia el uso de herramientas tecnológicas apoyadas en las TIC en el nivel medio superior y con ello buscar el ingreso de su Modelo Educativo al Sistema Nacional de Bachillerato y la certificación de todas sus Unidades Académicas.

[5] Mercé Gisbert Cervera, Entornos Virtuales de EnseñanzaAprendizaje, El proyecto GET; Depto. de Pedagogía. Universitat Rovira i Virgili. Tarragona

El uso de una plataforma como Entorno Virtual de Aprendizaje viene a colaborar en gran parte la inclusión, participación y capacitación de estudiantes y docentes en dicho Modelo Educativo, proyectando el mismo a futuro y preparando cada Unidad Académica de NMS para la certificación individual y en conjunto de sus Planes y Programas de Estudio.

http://pendientedemigracion.ucm.es/info/multidoc/multidoc/r evista/cuad6-7/evea.htm#merce [6] Tu mundo Virtual Ambiente Virtual de Aprendizaje, Algunos Ambientes Educativos Virtuales, http://www.tumundovirtual.net/tag/teleaprendizaje/

Además del alcance institucional, no debemos olvidar que la finalidad de toda institución es dotar a los estudiantes de las herramientas necesarias para continuar sus estudios en el siguiente nivel o bien prepararlos para ingresar al campo laboral y tener las condiciones de vida, sociales y profesionales adecuados, todo para un mejor desarrollo social en nuestro país.

[7] Comisión General de Reforma Universitaria , Modelo Educativo, hacia una Educación de Calidad con Inclusión Social, http://cgru.uagro.mx/documentos/ME%20y%20A/MODELO 2014.pdf [8] Garduño Teliz Elvia y otros , El Aprendizaje virtual en la UAGro : Experiencias y retos, http://comunidad.udistrital.edu.co/revistavinculos/files/2013/ 09/El-aprendizaje-virtual-en-la-UAGRO-experiencias-yretos.pdf

Así pues, un sistema al interior de las U.A. que gestione y promuevan en estudiantes, profesores y autoridades la búsqueda del conocimiento y aprendizaje, pero sobre todo, hacerlo traspasando las fronteras escolares, obteniendo información de cualquier parte del mundo, socializando y compartiendo diferentes tipos de conocimientos, vendrá a fortalecer los objetivos y

176

Tlamati, Número Especial 3 CICOM 2014

Implementación de una aplicación movil para realizar compras inteligentes Nelly Abad Najera Flores

Brigido Cerezo Román

Rene Edmundo Cuevas

Unidad Académica de Ingeniería Facultad de TIC'S Valencia Universidad Autónoma de Guerrero Universidad Tecnológica de la Región Universidad Autónoma de Guerrero Chilpancingo de los Bravos, Norte de Guerrero Unidad Académica de Ingeniería Guerrero Iguala de la Independencia, Guerrero Chilpancingo de los Bravos, [emailprotected] [emailprotected] Guerrero.

[emailprotected] descuentos, para esto se pretende hacer una aplicación en donde nos ayude encontrar estos beneficios que ayudaría a la economía familiar.

RESUMEN Desde hace tiempo ha surgido la duda de las personas, ¿dónde realizar mejor sus compras? y si en verdad han ahorrado lo suficientes al comprar o han gastado más de lo normal. Cada vez es más frecuente ir a supermercados ya que ahí es donde se encuentran gran variedad de artículos de uso personal. Para esto existen diferentes niveles de artículo que son catalogados como necesarios y no necesarios por ejemplo los alimentos que son de consumo diario que son catalogados como necesario, incluyendo la ropa. Mientras que cosas como aparatos electrónicos son considerados como secundarios. Antes de realizar una compra nos tomamos el tiempo de analizar en donde sería mejor hacer una compra.

Palabras Claves Aplicaciones, Android, Smart, Xampp, MySql, Base de Datos Distribuida

1. INTRODUCCIÓN Con la implementación de una aplicación web móvil permitirá principalmente al consumidor realizar de una forma fácil y sencilla la cotización de sus compras en Supermercados que existen en la localidad de Iguala de la Independencia. En dicha aplicación el consumidor podrá elegir los productos que desea comprar principalmente los productos básicos al enviar la solicitud hacia el servidor de la base de datos recibirá una pantalla donde mostrara el costo total de la compra en los tres diferentes Supermercados. Y así mismo también obtendrá una pantalla donde se muestra el horro económico que se obtendrá al comparar los productos más económicos de los tres centros comerciales.

Para alcanzar una muy buena compra a nivel personal, hay varias formas de que como persona o familia alcancemos el éxito gracias a unas buenas finanzas ordenadas, para ello debemos de disciplinarnos en diferentes áreas de nuestra vida, una de ellas son las compras esta área representa un verdadero reto ya que muchas de las deudas que contraemos son causadas por una mala práctica de compra.

Java se ha convertido en el lenguaje de elección para implementar aplicaciones basadas en Internet y software para dispositivos que se comunican a través de una red. Java Enterprise Edition (Java EE) está orientada hacia el desarrollo de aplicaciones de redes distribuidas de gran escala, y aplicaciones basadas en Web. Java Micro Edition (Java ME) está orientada hacia el desarrollo de aplicaciones para dispositivos pequeños, con memoria limitada, como teléfonos celulares, radiolocalizadores y PDAs.

Existen diferentes establecimiento comerciales en donde se disputan sus ventas ya que para ellos lo importante son sus clientes clientes y las ventas que realizan. Los supermercados juegan un gran papel en la sociedad, disputándose las ventas entre quien vende más y quien oferta más artículos o quién da más descuentos, El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

MySql es un sistema de gestión datos relacional, multihilo y multiusuario con millones de instalaciones.[7]

de bases más de

de seis

Xampp para el servidor de Aplicaciones y la Base de datos Maestro.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de GuerreroACM

Sistema operativo Android, para el Smart Tv el sistema Samsung, en la elaboración de este proyecto se hará uso de la herramienta 177

Tlamati, Número Especial 3 CICOM 2014 de desarrollo App Inventor cuyo entorno de desarrollo es apropiado para dispositivos Android

Tabla 1.Cotización de los tres centros comerciales.

El concepto de compra se hace referencia a la acción de obtener o adquirir, a cambio de un precio determinado, un producto o un servicio. Pero también se considera “compra” el objeto adquirido, una vez consumado el acto de adquisición. Podemos decir que el hecho de que se produzca una compra también presume la existencia de otra parte, que es la que recibe el precio pactado por la prestación, es decir, quien realiza la venta. Resulta obvio que cada parte necesita de la existencia de la otra para cumplir su función, lo que se plasma en la conocida expresión “compra-venta”. [4] La inteligencia es la capacidad de relacionar conocimientos que poseemos para resolver una determinada situación. Si indagamos un poco en la etimología de la propia palabra encontramos en su origen latino inteligere, compuesta de intus (entre) y legere(escoger). Por lo que podemos deducir que ser inteligente es saber elegir la mejor opción entre las que se nos brinda para resolver un problema. [5] En la figura de la tabla 1 muestra la organización de la información ya procesada, en donde cada comprador aporta su ayuda, en este caso diferentes compradores alimentaron el sistema subiendo información referente a cada producto en los distintos centros comerciales, muestra 4 tablas, la primera hace referencia a los precios de la bodega Aurrera. La segunda tabla de Comercial Mexicana y una tercera tabla de Soriana, la tabla cuatro muestra la mejor opción de compra para cada producto.

Compras Inteligentes es la manera más adecuada de gastar tu dinero, cuando se está tomando una decisión de realizar una compra, al adquirir un producto indispensable, no es suficiente si tiene un precio bajo, sino que conllevar a tomar en cuenta la calidad del mismo, por ello hoy en día la tecnología, ha jugado un factor muy importante en nuestra vida cotidiana, porque reduce la distancia y ya no es necesario ir físicamente al establecimientos para saber los precios y características de cada producto. Con la implementación de la aplicación, solo bastara con buscar el producto a adquirir y elegir el lugar en donde más le conviene realizar la compra, esto representa un ahorro bastante considerado porque ya no se tendría que desplazar a cada ciudad donde tienen disponible el producto y poderlo negociar, existen 3 ventajas considerables: 1) 2) 3)

Tabla 2. Resultado de la consulta de los productos básicos.

Facilidad de comunicación eludiendo horarios y distancias Nuevo canal de comunicación según los intereses del comprador. Se suministra una cantidad enorme de información con gran rapidez.

2. APLICACIONES WEB MÓVILES Hoy en día el uso de las tecnologías de la Información y comunicación que ya son partes de nuestra vida cotidiana da lugar a implementar una aplicación web móvil, donde el usuario podrá cotizar sus compras de una forma interactiva y simple; tomando en cuenta para el caso de estudio se considera analizar los precios más económicos de los productos básicos de los tres Supermercados. Como son Bodega Aurrera, Comercial Mexicana y Soriana; tomando en cuenta que el centro comercial Sam’s Club es una tienda que sus ventas son por mayoreo.

En la figura de la tabla 2 muestra 2 tablas, la primera muestra la mejor opción de compra para cada producto, en los diferentes centros comerciales y la segunda se puede observar el ahorro en cada compra, lo que es muy importante para el consumidor.

El usuario mediante esta aplicación podrá seleccionara los productos por medio de un formulario interactivo de las compras que desea realizar, una vez concluida, la aplicación mostrara el costo total cotización de cada uno de los tres Supermercados. Y una pantalla que mostrara en donde se encuentran los productos más económicos y el ahorro que tendrá. Figura 3 y Figura 4. 178

Tlamati, Número Especial 3 CICOM 2014 En la figura 4 muestra el formulario del botón número 2, mencionado anteriormente, el cual funciona de la siguiente manera el comprador introduce los datos del producto e inmediatamente el sistema le responde dándole los precios de cada producto en los diferentes centros comerciales.

3. DESARROLLO DE LA APLICACIÓN

Figura 3. Aplicación desde un móvil para accesar desde Maestro-Esclavos

En la figura 3 muestra los formularios creados en App Inventor cuyo entorno de desarrollo es apropiado para dispositivos Android, esta pantalla dispone de 3 botones en los cuales se pueden realizar diferentes funciones, en el primer botón es para poder agregar los datos de productos, en el segundo es para mostrar datos del producto a comprar y en el tercer botón es para poder visualizar las ofertas como por ejemplo las que hace un centro comercial un julio.

Figura 5. Envió de replicación Maestro-Esclavos En la figura 5 muestra la arquitectura de la aplicación, desde el móvil envía la petición (instrucción SQL), la cual lee en la base de datos y prepara para responder con la información solicitada por el comprador.

4. SERVIDOR MAESTRO 4.1 Servidor Esclavo Para llevar a cabo una búsqueda rápida y eficiente de los diferentes precios de los productos se utilizara un replicación “Maestro – Esclavos” (figura 1), con lo que se pretender balancear la carga de las peticiones de los diferentes usuarios, para el caso del servidor maestro este solamente podrá realizar en modo de escritura (Insertar, Actualizar y Borrar) mientras que los servidores esclavos solamente serán de lectura (consulta). La infraestructura de la red que se utilizara para la aplicación “compra inteligente” será mediante la creación de un sistema de base de datos distribuida donde se almacenaran las diferentes bases de datos de cada centro comercial en los servidores y un servidor de aplicaciones figura 2.

Figura 4. Aplicación desde un móvil.

179

Tlamati, Número Especial 3 CICOM 2014 frijoles, huevo, etc.; para su alimentación cotidiana; y es por ello que es muy importante tener un ahorro económico, lo cual buscan precios más económicos en mercados municipales, tiendas pequeñas de 24 horas y centro comerciales. Para los consumidores que realizan sus compras en tiendas comerciales cada día o cada fin de semana comparan precios principalmente en centros comerciales. En ocasiones tiene que aprovechar de los aniversarios o de los meses que llevan a cabo las ofertas como julio regalado en comercial mexicana, golpes bajos de precios de mama lucha de bodega Aurrera, martes de frutas y verduras en Soriana por mencionar algunos.

5. CONCLUSIONES La unión de varias aplicaciones que forman este proyecto y el uso de diferentes medios de comunicación podremos logar que se lleve a cabo un balance de precios para una compra inteligente que nos deje satisfechos no solo al momento de adquirir nuestra compra, si no días, semanas y meses después de haber realizado una compran en el lugar adecuado. [6]

Figura 1. Configuración de la replicación Maestro-Esclavos

Con la implementación de esta aplicación móvil de compra inteligente en nuestros dispositivos móviles nos dará la facilidad de que antes de que tengamos pensado en donde comprar nos de precios accesibles a nuestro presupuesto. Así pues, está claro que comprar de manera inteligente no se trata solamente de encontrar el producto más barato, sino el más conveniente. La meta es tener lo mejor, al menor precio posible podemos llegar a la conclusión que la integración de las tecnologías de la información y comunicación en el desarrollo del proyecto permitió hacer uso de las ventajas, así como optimizar los recursos disponibles. Con este tipo de aplicaciones permitirá al usuario tener un ahorro en sus compras principalmente en los productos básicos.[8]

Figura 2. Diseño de la red de los servidores de las bases de datos y del servidor de aplicación. Para el caso de la aplicación web Móvil, este se podrá consultar por medio de una PC de Escritorio, Computadoras Portátiles, Tabletas, Teléfonos Smartphone y Smart TV. Usando como plataforma el sistema operativo Android, para el Smart Tv el sistemas Samsung; Xampp para el servidor de Aplicaciones y la Base de datos Maestro; y para que pueda compartir los precios con los consumidores que se irán incorporando para actualizar las bases de datos de los diferentes centros comerciales se usara un blog.

En la actualidad existen una variedad de aplicaciones tecnológicas móviles que nos permiten ver el precio de productos como lo es Out of Milk que nos da una lista de la compra de la despensa y de tareas pendientes, Shopping List que sirve para organizar y distribuir listas de compras, Supertruper que es una cesta de compra, que permite enlistar de una forma sencillas, Shopping List Voice, hacer listas a través de voz, entre otros mas.[9]

Desarrollar una aplicación web móvil basado en un sistema Integral en Tecnologías de Información y comunicación para realizar compras económicas tomando en cuenta los tres principales Supermercados que existen en la ciudad de iguala de la independencia.

Para que este proyecto tenga éxito es importante señalar la participación de la comunidad en el blog para poder actualizar las bases de datos y tener los precios más recientes y estar seguro que con esta aplicación se realice una compra más inteligente. Ya que el proyecto nos dará información de precios y el lugar en donde se encuentren los artículos o productos más baratos que la competencia.

4.3 Estudio Socioeconómico de la zona

6. REFERENCIAS

Iguala de la independencia es una ciudad que se encuentra ubicada en zona norte del estado de guerrero, donde su zona económica es B con un salario mínimo de 61.38 pesos en jornada laboral que este año 2014 tuvo un incremento del 3.9 %.

[1]

4.2 Plan del desarrollo de la aplicación

La economía de muchos consumidores no siempre es suficiente para poder comprar los productos básicos como son la tortilla, 180

Página para realizar descarga de la aplicación App inventor. www.tuappinventorandroid.com

Tlamati, Número Especial 3 CICOM 2014 [2] Installing the App Inventor Setup for Windows has two parts. http://www.beta.appinventor.mit.edu/learn/setup/setupwindo ws.html

[6] Una compra inteligente es aquella que nos deja satisfechos no sólo al momento de la adquisición, sino días, semanas y meses después. http://www.finanzaspracticas.com/finanzaspersonales/presup uestar/compras/inteligentes.php

[3] Interesante guía para desarrollo Android usando MIT App Inventor, el desarrollo de aplicaciones en android permite llegar a gran parte del mundo. http://www.develoteca.com.libro-desarrollo-android-usandomit-app-inventor

[7] As anyone will tell you, competition is a good thing because it gives you a choice. http://www.grnlight.net/index.php/programming-articles/95dispelling-the-myths

[4] Con el concepto de compra se hace referencia a la acción de obtener o adquirir, a cambio de un precio determinado, un producto o un servicio. http://concepto.de/compras/#ixzz35rTmcKwo

[8] Comprar más inteligentemente no sólo se trata sobre el ahorro de dinero, a pesar de que esa es la idea fundamental detrás de ello. http://www.ehowenespanol.com/comprasinteligentes-diez-aplicaciones-comprar-mejor-info_180547/

[5] La inteligencia es la capacidad de relacionar conocimientos que poseemos para resolver una determinada situación.http://www.xatakaciencia.com/otros/que-es-lainteligencia

[9] Las diez mejores aplicaciones Android para la compra es una lista de apps destinadas a hacerte más fácil la vida desde el momento que pones cincuenta céntimos para coger el carrito de la compra. http://sevilla.abc.es/mobility/las_mejores_app/android/lasmejores-app-android/las-diez-mejores-aplicaciones-androidpara-la-compra/

181

Tlamati, Número Especial 3 CICOM 2014

Realidad Aumentada aplicada a la Educación a nivel secundaria en la asignatura de Biología Miguel Angel Muñoz Salas

Eric Rodríguez Peralta

René E. Cuevas Valencia

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero.

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero.

Universidad Autónoma de Guerrero Unidad Académica de Ingeniería Chilpancingo, Guerrero.

[emailprotected]

[emailprotected]

[emailprotected]

y elementos del mundo real [2]. Es una tecnología que permitirá al alumno visualizar la información en tiempo real, teniendo la facilidad de interactuar con los contenidos de una forma dinámica.

RESUMEN El presente trabajo tiene como propósito aplicar la Realidad Aumentada como un instrumento de aprendizaje dirigido a nivel secundaria, eligiendo al azar la materia de biología con los siguientes temas: el microscopio, la célula animal y vegetal, aparato digestivo, aparato respiratorio y aparatos reproductores; teniendo como objeto un libro en el cual los alumnos a través de ésta tecnología y mediante un dispositivo móvil tendrán otra forma de aprender estableciendo un impacto educativo que provocaría la utilización de la Realidad Aumentada en el proceso de enseñanza-aprendizaje; y a través de ella también aumentar la motivación en el alumno para generar nuevos conocimientos.

2. REALIDAD AUMENTADA La Realidad Aumentada es el término que se usa para definir una visión directa o indirecta de un entorno físico del mundo real, cuyos elementos se combinan con elementos virtuales para la creación de una realidad mixta a tiempo real. Consiste en un conjunto de dispositivos que añaden información virtual a la información física ya existente. Con la ayuda de la tecnología la información sobre el mundo real alrededor del usuario se convierte en interactiva y digital. [18]

Palabras Clave Realidad Aumentada, Educación, Móvil, Aprendizaje.

2.1 Funcionamiento 1. INTRODUCCIÓN La Realidad Aumentada es una técnica de visualización que añade información virtual sobre un escenario real; ésta incorporación se logra ver por medio de una pantalla donde se mezcla la información en video que capta una cámara con la información virtual creada previamente y es sincronizada a través de marcas o patrones. Los patrones son imágenes en blanco y negro que le indican al sistema a través de la cámara, la ubicación y perspectiva donde debe desplegar la información virtual [3]. Por otra parte, los Objetos de Aprendizaje tienen como fin facilitar una educación flexible y personalizada, ayudando a fomentar la capacidad y comprensión del estudiante de manera fácil. Es por lo anterior, que los Objetos de Aprendizaje se pueden implementar mediante la Realidad Aumentada.

Actualmente el sistema educativo se ha interesado en proporcionar nuevas técnicas que faciliten al estudiante una mejor comprensión para aumentar el nivel de aprendizaje, disminuyendo así parte del rezago educativo que hay principalmente en los Estados de Guerrero, Oaxaca y Chiapas [1], aspectos preocupantes en este sector. La Realidad Aumentada es una tecnología reciente la cual consiste en un entorno que incluye elementos de Realidad Virtual El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

El funcionamiento de esta tecnología es muy sencillo: en tiempo real, la cámara realiza un visionado de nuestra realidad buscando patrones de realidad aumentada definidos por el usuario. Cuando la cámara encuentra este patrón, la computadora procesa la perspectiva en la que el sujeto ve las cosas, y calcula e inserta elementos virtuales predeterminados en ella, haciéndolos parte de su realidad [5]. Figura 1.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de GuerreroACM

182

Tlamati, Número Especial 3 CICOM 2014 los sistemas operativos móviles Android e iOS. En un principio fue lanzado en 2010 para Android 2010 y posteriormente, en julio de 2011, la versión para iOS fue publicada. Este kit pretende ser una herramienta de ayuda para desarrolladores que quieren construir aplicaciones de realidad aumentada para estos sistemas sin tener que crear todo el código desde cero.

Figura 1. Representación del funcionamiento básico de la realidad aumentada •

Atomic Authoring Tool [9] es un software para la creación de escenas de realidad aumentada cuyo funcionamiento es el mismo que el de la mayoría de aplicaciones de RA; el programa detecta el patrón del marcador y muestra el objeto 3D. Su principal ventaja es que es multiplataforma, ya que está disponible tanto para Ubuntu, Windows y Mac. Hace uso de ArToolKit para la parte de reconocimiento y salida de vídeo.

Look! [10] es un framework para el desarrollo de aplicaciones de RA para Android. De código abierto, contiene herramientas para el dibujado de objetos simples con colores y texturas. Además, permite utilizar la conexión Wi-Fi del móvil para obtener la localización exacta en un espacio cerrado donde, en ocasiones, el GPS no es lo suficientemente preciso.

SSTT [11] es una biblioteca para el posicionamiento en la realidad aumentada mediante marcadores, creada por Hartmut Seichter y cuya principal ventaja es la versatilidad que tiene, ya que está disponible para Windows, Mac y Linux. Además, tiene versiones optimizadas para plataformas móviles como Android, Maemo o iOS (SSTT Mobile).

Osgart [12] es una biblioteca que mezcla ArToolKit con OpenSceneGraph [13] para intentar simplificar el desarrollo de las aplicaciones de RA. La herramienta GNU GPL OpenSceneGraph se usa para realizar gráficos en 3D de alta calidad, de manera que Osgart aprovecha sus ventajas y las de ArToolKit para crear una herramienta de desarrollo para aplicaciones que combine las ventajas de las dos herramientas. Dispone también de una versión profesional paralela, enfocada para la creación de aplicaciones comerciales.

ArToolKit [14] es una librería software que se emplea en el desarrollo de aplicaciones de realidad aumentada. Tal y como se ha podido comprobar en la descripción de las anteriores, es usada en multitud de proyectos de diversa índole. Además de que su código completo sea distribuido bajo licencia GNU, otra ventaja de ArToolKit es que tiene distribuciones para Linux, IRIX, Windows y Mac. Lo cual, unido a sus múltiples funciones, hace que sea una de las herramientas más utilizadas. Como función principal ArToolKit permite calcular, en tiempo real, la posición y orientación de la cámara respecto a un marcador que aparece en la imagen. También posee algunas funciones de calibrado.

AndAR (Android ARToolkit) es una biblioteca de software basado en Java que permite usar Realidad Aumentada en la plataforma Android. Android captura

2.2 Características Un sistema de Realidad Aumentada tiene las siguientes características [4]: • Combinación de elementos virtuales y reales. La información digital se combina con la realidad. • Procesamiento en tiempo real. Tanto los objetos que deben ser rastreados como la información sobre estos deben proporcionarse a tiempo real. • Registro 3D. Los objetos reales y virtuales son registrados y alineados geométricamente entre ellos y dentro del espacio para darles coherencia espacial.

2.3 Aplicaciones •

Medicina. La aplicación de Realidad Aumentada en este campo se centra en la cirugía mínimamente invasiva. Es una aplicación que superpone en tiempo real la reconstrucción 3D de las estructuras internas del paciente sobre la imagen de vídeo del mismo [5]. Esto supone una ayuda para el cirujano, puesto que ve en todo momento como es la estructura interna del paciente, pudiendo planificar mejor la operación. Además reduce de costos de la operación y en el tiempo invertido en ella. Diseño y producción. Como ejemplo la automotriz, ayudando a sus diseñadores e ingenieros a visualizar nuevos prototipos, modificando a su antojo el prototipo sin necesidad de las tradicionales estructuras de arcilla u otros materiales [6]. Educación. En la educación, la Realidad Aumentada constituye una plataforma tecnológica especialmente eficaz en todo lo relacionado con la forma en que los estudiantes perciben la realidad física, puesto que permite desglosarla en sus distintas dimensiones, con objeto de facilitar la captación de sus diversas particularidades, en ocasiones imperceptibles para los sentidos. Así, con la Realidad Aumentada es factible generar modelos que simplifican la complejidad multidimensional del mundo circundante, lo que, desde una perspectiva académica, aporta completitud a cualquier experiencia de aprendizaje [7].

2.4 Herramientas Existen varias herramientas que pueden ser utilizadas para desarrollar aplicaciones basadas en Realidad Aumentada de las cuales se descrben las siguientes: •

El SDK para realidad aumentada de la compañía Qualcomm [8] es un kit de desarrollo de software para 183

Tlamati, Número Especial 3 CICOM 2014 y muestra el video y el código del ARToolKit implementa el reconocimiento, análisis geométricos y seguimiento del patrón [15]. •

5. METODOLOGÍA Para el desarrollo de éste proyecto se propone la siguiente metodología:

SLARToolkit es una biblioteca flexible de Realidad Aumentada para el teléfono celular Silverlight de la empresa Windows. Tiene como objetivo hacer que las aplicaciones de Realidad Aumentada en tiempo real sean fáciles y rápidas de utilizar; se basa en NyARToolkit y ARToolkit. SLARToolkit utiliza un modelo de licencia dual y puede ser utilizado para aplicaciones de código abierto o cerrado bajo ciertas condiciones [16].

-

Análisis general del proyecto

-

Analizar la factibilidad de la aplicación del proyecto.

-

Analizar cada uno de los temas referentes a la asignatura propuesta.

-

Diseño de marcadores

-

Modelado de la imágenes

-

Desarrollo e implementación de la aplicación

-

Evaluar los resultados obtenidos.

3. OBJETOS DE APRENDIZAJE 6. CONCLUSIONES

Es un conjunto de recursos digitales que pueden ser utilizados en diversos contextos, con un propósito educativo y constituido por al menos cuatro componentes internos, que son [17]: • Contenidos: Es la carga de información que contiene una infraestructura de almacenamiento de datos. •

Con este trabajo se pretende llegar a la utilización de la tecnología de Realidad Aumentada en el sector educativo mediante un libro como una herramienta para la enseñanza de la materia “Biología” de educación secundaria y facilitar el proceso de enseñanza aprendizaje, así también obtener un impacto motivacional e interés en el estudiante innovando los procesos educativos.

Actividades de aprendizaje: Son todas las que el estudiante debe realizar para lograr captar el aprendizaje, para que el conocimiento llegue a él. Elementos de contextualización: Son las técnicas en las que el estudiante debe estar rodeado a fin de que le permitan tener una comprensión de todo. Actividades de evaluación: Consiste en una estrategia didáctica en la que se aborda la evaluación desde el punto de vista formativo, como instrumento de aprendizaje, con esta técnica los estudiantes detectan sus fallas y a la vez, el docente puede realizar los ajustes necesarios en la marcha del proceso educativo.

7. REFERENCIAS [1] http://www.ieesa.org.mx/Datos/Diagnostico_Estadistico_Nac ional.pdf [2] AZUMA, Ronald T.(1997)“A Survey of Augmented Reality”.InPresence:Teleoperators and VirtualEnvironments 6,4(August1997) [3] ARREDONDO, Samir y MATEUS, Sandra. “Desarrollo de un modelo de ambiente virtual que integre el uso de la Realidad Aumentada para el proceso de Enseñanza Aprendizaje de la asignatura Fundamentos de Programación 1” Trabajo de Grado Ingeniero Informático. Medellín.: Politécnico Colombiano Jaime Isaza Cadavid. 2010.

4. LIMITACIONES Las limitaciones que se pueden encontrar al realizar éste trabajo son los siguientes: •

Debido a que la aplicación se implementa en dispositivos móviles, la mayoría de los usuarios carecen de este recurso.

Las imágenes que se generan en Realidad Aumentada podrían verse muy lentas.

Algunos estudiantes podrían tener problemas al enfocar la imagen de los patrones correctamente en la cámara.

No se asegura la comprensión total de los temas propuestos.

[4] TAPIA LÓPEZ, Joan.” Juego de Realidad Aumentada de tanques”. 2008. [5] NEGRETE MONTERO, Cristóbal Roberto. “Investigación Aplicada de las técnicas de Augmented Reality para la Presentación y Simulación en Tiempo Real de Proyectos de Diseño”, Ed. Universidad Católica de Chile, Santiago de Chile, 2006. [6] DE URRAZA, J. “La Realidad Aumentada”, Ed. Universidad católica “Nuestra Señora de la Asunción”, 2006. [7] CARRECEDO, Javier de Pedro y MARTÍNEZ, Carlos Luis. “Realidad Aumentada: Una Alternativa Metodológica en la Educación Primaria Nicaragüense”. Mayo, 2012.

Dichas limitaciones se tratarán de solucionar a lo largo de este proceso. La Realidad Aumentada es una tecnología a la que se puede acceder de manera viable y costos reducidos.

[8] Qualcomm AR SDK: https://developer.qualcomm.com/develop/mobiletechnologies/augmented-reality [9] Atomic Authoring Tool: http://www.sologicolibre.org/projects/atomic/es/ [10] Look!: http://www.lookar.net 184

Tlamati, Número Especial 3 CICOM 2014 [11] SSTT - Augmented Reality Tracking Library: http://technotecture.com/projects/sstt

[16] SlarToolKit. Disponible en Internet: lartoolkit.codeplex.com [17] VALENCIA, Claudia Tatiana y JIMÉNEZ, Alexa Tatiana. “Objetos de Aprendizaje práctica y perspectivas educativas”. 1 ed. Cali: Pontificia Universidad Javeriana de Cali, 2009.

[12] Osgart: http://www.artoolworks.com/community/osgart/ [13] OpenSceneGraph website: http://www.openscenegraph.org/projects/osg

[18] http://booktypedemo.sourcefabric.org/data/messages/marbellada/Realidad% 20Aumentada.pdf

[14] ArToolKit: http://www.hitl.washington.edu/artoolkit/ [15] CRAIG, A. MCGRATH, R. GUTIERREZ, A. Technical Note: “Augmented Reality Software Kits for SmartPhones”. 2011. Disponible en Internet: https://www.ideals.illinois.edu/bitstream/handle/2142/27688/ AR_Smart_Phone_Note_rev3.pdf?sequence=2

185

Tlamati, Número Especial 3 CICOM 2014

Sistema de alertas de signos vitales y de ubicación a través de dispositivos móviles Judy Marcela Moreno Ospina

Manuel Fernando Sánchez G.

Grupo de investigación LENTE Universidad Distrital Francisco José de Caldas Transv. 70B No. 73A 35 Sur Bogotá, Colombia

Grupo de investigación Metis Universidad Distrital Francisco José de Caldas Transv. 70B No. 73A - 35 Sur Bogotá, Colombia

[emailprotected] om

mfsanchez78@gmail. com

Nevis Balanta Castilla Grupo de Investigación LENTE Universidad Distrital Francisco José de Caldas Transv. 70B No. 73A - 35 Sur Bogotá, Colombia

[emailprotected] om

Luis Felipe Wanumen S. Grupo de Investigación Metis Universidad Distrital Francisco José de Caldas Transv. 70B No. 73A - 35 Sur Bogotá, Colombia

[emailprotected]

tiempo.

RESUMEN

Palabras clave

En el presente artículo se describen las características de un Sistema de alertas móvil de arritmia cardíaca, que permite realizar un monitoreo continuo de la frecuencia de un paciente que padece enfermedades isquémicas del corazón1, registrando dicha información en una base de datos alojada en un servidor remoto y reportar cuando se presente una anomalía en el sistema cardiaco del paciente a través de un correo electrónico a los contactos autorizados y el médico de cabecera con un detalle de la anomalía presentada en su frecuencia cardiaca, posición GPS y mapa de la ubicación del paciente. Lo anterior se hace posible tomando ventaja de los dispositivos ya existentes que controlan ciertos signos vitales y combinarlos con la portabilidad y facilidad de manejo de los dispositivos móviles, presentando una aplicación que fusiona estas características y permita a las personas conocer información relevante del estado de salud del paciente a

Dispositivos móviles, SIG, enfermedades cardiacas.

ABSTRACT This article describes the features of a mobile alert system for cardiac arrhythmia which allows for monitoring the frequently to ischemic heart disease patients. The system stores the information in a database hosted on a remote server and report patient when a patient's Anomaly is detected by the cardiac system. The message is sent vía email to contacts and authorized physician with a detail of the anomaly presented. It includes heart rate, GPS coordinates, and map showing the location of the patient. This project was made possible by advantage of existing devices that allows the users to control certain vital signs and the combination it with the portability and ease of use of mobile devices. The application shown merges these features and allows people to know relevant information about the patient's health status.

Keywords

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

Devices, SIG, heart disease.

1. INTRODUCCIÓN Gracias a los constantes avances tecnológicos en diferentes áreas, muchas de las cosas que hace un siglo eran inimaginables ahora son posibles; no cabe duda que la tecnología médica es un gran ejemplo de ello y ha permitido que la calidad de vida progresara en grandes proporciones con el paso del tiempo. Por otro lado la telefonía celular no ha sido algo diferente, esta útil herramienta ha simplificado la comunicación en muchos sentidos y continúa desarrollándose y prestando diferentes aplicaciones.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

1

En la actualidad debido a la difusión y el gran auge de la tecnología móvil las personas hacen uso de ella para mitigar muchos problemas del común. Existe así la necesidad de usar estas tecnologías para apoyar también el área de la salud , por ejemplo, hacer uso de la tecnología para conocer a tiempo

La enfermedad de las arterias coronarias (EAC), también conocida como cardiopatía isquémica es el tipo más común de enfermedad del corazón. 186

Tlamati, Número Especial 3 CICOM 2014 información relevante como una anomalía en la frecuencia cardíaca, permitiría que se actué rápidamente cuando ocurren casos fortuitos y evitar muertes por ataques cardíacos, que en Colombia alcanza una cifra de seis personas por hora que mueren por esta razón , y solo el 10% de las personas que sufren un ataque cardíaco sobreviven, sucesos que se podrían evitar en alguna medida si se alertara de estos casos a tiempo.

puedan acceder a algunos de estos datos: a la lista de contactos de teléfono y de email, al registro de llamadas, a los datos transmitidos por internet, a la información del calendario, a los datos de localización del dispositivo, al código de identificación exclusivo del dispositivo o a información que indica la manera en que usted usa la aplicación propiamente dicha.

Sin embargo, a pesar que existen algunos desarrollos actuales alrededor de este tipo de situaciones, se hace necesario mirar alternativas nuevas que permitan innovar y facilitar el uso de este tipo de herramientas en Colombia, en las que las tecnologías de la información y comunicación juegan un papel fundamental.

Es decir algunas aplicaciones acceden solo a los datos necesarios para su funcionamiento y otras pueden acceder a datos que no están relacionados con el propósito de la aplicación. Dicha información puede ser recolectada, por el creador de la aplicación, la tienda de aplicaciones, un anunciante o una red de publicidad, también es posible que los datos recolectados sean compartidos con otras compañías.

En el presente documento se presenta una propuesta que pretende dar una solución tecnológica efectiva a este tipo de casos integrando diferentes recursos, haciendo uso de la tecnología móvil que se encuentra al alcance de cualquier persona y permitiría a las personas actuar adecuadamente y a tiempo de ser necesario.

2.2. Georeferenciación La Georeferenciación hace referencia a la localización con precisión en un mapa de cualquier lugar de la superficie terrestre, que requiere participación de diferentes disciplinas: Geodesia, topografía, cartografía y sistemas de información geográfica.

2. MARCO TEÓRICO

2.2.1. Sistemas de información geográfica

Para el desarrollo del proyecto propuesto es necesario abordar ciertos conceptos que aportan de manera relevante la claridad de los temas tratados en el proyecto, así como los sistemas que actualmente utilizan tecnologías similares a la propuesta para dar una mayor perspectiva de la solución implementada.

Un Sistema de Información geográfico (SIG) especifica un conjunto de procedimientos sobre una base de datos no gráfica o descriptiva de objetos del mundo real que tienen una representación gráfica y que son susceptibles de algún tipo de medición respecto a su tamaño y dimensión relativa a la superficie de la tierra. A parte de la especificación no gráfica el SIG cuenta también con una base de datos gráfica con información georeferenciada o de tipo espacial y de alguna forma ligada a la base de datos descriptiva. En un SIG se usan herramientas de gran capacidad de procesamiento gráfico y alfanumérico, estas herramientas van dotadas de procedimientos y aplicaciones para captura, almacenamiento, análisis y visualización de la información georeferenciada.

2.1. Aplicativos Móviles Son aplicaciones tecnológicas, diseñadas para ejecutarse en diferentes dispositivos móviles soportadas en sistemas operativos como Android, iOS, BlackBerry OS, Windows phone. De tal manera los dispositivos móviles proveen numerosos servicios que van más allá de la movilidad, le permiten al usuario disponer de una conexión telefónica independientemente de su ubicación, el dispositivo usado y el medio de transmisión, al igual que acceso a diferentes aplicaciones de ocio, de ubicación, acceso a internet entre muchas otras.

2.3. GPS Se denomina GPS (Sistema de Posicionamiento Global) a el sistema global de navegación por satélite (GNSS) este permite determinar la posición de una persona u objeto en todo el mundo con precisión. Este sistema fue desarrollado, instalado y empleado por el Departamento de Defensa de los Estados Unidos. El sistema GPS está constituido por 24 satélites y utiliza la triangulación para determinar en todo el globo la posición con precisión.

2.1.1. Aplicaciones móviles gratuitas Algunas aplicaciones móviles son gratis y se pueden descargar de las tiendas de aplicaciones. Los creadores de estas aplicaciones puede que no se lucren por la venta del aplicativo pero ganan dinero bien sea vendiendo un espacio publicitario dentro de la aplicación, por lo que el aplicativo es gratuito para llegar a mayor cantidad de usuarios; u ofreciendo versiones básicas gratuitas, para que el usuario después de probarla adquiera una versión mejorada y con una mayor cantidad de funciones por la que tendrá que pagar un cargo. Por otro lado algunas aplicaciones permiten comprar más funciones de la misma aplicación, las compras de esas funciones adicionales se facturan a través de la tienda de aplicaciones. Igualmente varios dispositivos vienen con configuraciones que permiten bloquear estas compras.

Actualmente los fabricantes de telefonía móvil integran a los dispositivos tecnología GPS. El uso y masificación del GPS está particularmente extendido en los teléfonos móviles smartphone, lo que ha hecho surgir todo un ecosistema de software para este tipo de dispositivos, así como nuevos modelos de negocios que van desde el uso del terminal móvil para la navegación tradicional punto-a-punto hasta la prestación de los llamados Servicios Basados en la Localización (LBS).

2.1.2. Datos a los que acceden las aplicaciones

2.4. Sistemas de Alertas

Al registrarse un usuario en una tienda de aplicaciones o al descargar aplicaciones individuales, es posible que soliciten autorización para que permita que se acceda a la información del dispositivo móvil. Es preciso verificar estas características antes de descargar una aplicación, ya que estas posiblemente

Un sistema de alertas puede ser visto como una herramienta de seguridad, de tal manera que a pesar de que estos no permiten evitar situaciones anormales, si están en la capacidad de advertir de ella. 187

Tlamati, Número Especial 3 CICOM 2014 El objetivo de un sistema de alertas es reducir el tiempo de ejecución de acciones a tomar en función del problema presentado, reduciendo así las perdidas.

inalámbrica de datos acerca de la frecuencia cardíaca a otro dispositivo. La mayoría de los monitores cuentan con varias alarmas que suenan cuando la persona va por encima o por debajo de su meta de ritmo cardíaco, la cual es configurable.

2.5. Signos vitales

3. DESARROLLO 3.1. Metodología

Se denominan signos vitales a todos los referentes que indican que una persona se encuentra con vida y permiten determinar si su estado de salud es óptimo o no, estos comprenden de: el ritmo cardíaco, la frecuencia respiratoria, la temperatura y la presión arterial. Los médicos, enfermeras o socorristas pueden observar, medir y vigilar los signos vitales para evaluar el nivel de funcionamiento físico de un paciente.

La metodología que se plantea para el desarrollo del proyecto es la metodología de la Ciencia basada en el Diseño (Figura 1), que plantea tres fases, Análisis del Entorno, análisis de la base del conocimiento y Construcción y evaluación de la arquitectura del sistema. Se determinó usar esta metodología teniendo en cuenta que la base del desarrollo del proyecto es investigativa para finalmente proyectar un producto final, prestando mayor énfasis en la investigación.

Los signos vitales normales cambian con la edad, el sexo, el peso, la tolerancia al ejercicio y la salud general. Los rangos normales de los signos vitales para un adulto sano promedio mientras está en reposo son: • Presión arterial: 90/60 mm/Hg hasta 120/80 mm/Hg. • Respiración: 12 a 18 respiraciones por minuto. • Pulso: 60 a 100 latidos por minuto. • Temperatura: 36.5-37.2° C (97.8-99.1° F)/promedio de 37º C (98.6° F).

2.6. Monitor de Signos Vitales Son monitores y equipos usados por los profesionales de la salud para acceder de manera inmediata a la información referente a signos vitales de los pacientes, estos permiten detectar, procesar y desplegar continuamente los parámetros fisiológicos de los pacientes, estos monitores también proveen un sistema de alertas cuando se presenta alguna situación fuera de la normalidad. Los equipos más sofisticados de este tipo son de uso institucional en los departamentos de urgencia y hospitalización de clínicas, hospitales y centros médicos, además de uso en las ambulancias, tecnologías que constantemente presentan mejoras y alternativas en emergencias [15]. esta herramienta suele ser de gran ayuda para médicos y enfermeras para evaluar de manera completa y continua a los pacientes y así tomar mejores decisiones basándose en el estado fisiológico del paciente, ya que este provee parámetros fisiológicos como: Frecuencia respiratoria, presión, dióxido de carbono, electrocardiograma, temperatura, dióxido de carbono, presión de oxígeno, gasto cardiaco entre otros.

Figura 2. Modelo de la Ciencia del Diseño [2]

3.1.1. Análisis del Entorno El buen estado de salud, es uno de los factores más importantes para una condición de vida óptima y de satisfacción para el ser humano. Sin embargo, estos se pueden ver afectados por razones deliberadas (como homicidios, causas violentas), o naturales (como diferentes enfermedades: infartos, enfermedades respiratorias). En la mayoría estas razones suelen ser difíciles de controlar. Según cifras del DANE, la principal causa de muertes en Colombia en el año 2013 fue por enfermedades isquémicas del corazón, casi seguido por enfermedades crónicas en vías respiratorias inferiores e infecciones respiratorias agudas [3], un dato preocupante, cuando en la mayoría de los casos tanto los pacientes como los familiares están al tanto de la situación y pueden prevenirse si se conoce a tiempo una anomalía en el sistema vital.

2.7.Monitor de ritmo cardíaco Fuera de los centros de servicio médico existen monitores portables que permiten a las personas evaluar signos vitales similares a los usados profesionalmente [16], sin embargo, son más usados por los deportistas, ejemplo de ello son los monitores del ritmo cardíaco que son dispositivos empleados por deportistas que les permiten calcular y controlar su ritmo cardíaco durante el ejercicio. Esto les permite ajustar la intensidad de sus ejercicios con el fin de satisfacer objetivos de entrenamiento. Existen también dispositivos denominados pulsómetros que muestran adicionalmente las calorías totales aproximados que el deportista quema durante el ejercicio. Así mismo se puede usar un monitor de ritmo cardíaco durante todo el día para permitir realizar un seguimiento de las calorías.

A raíz de dar solución a tal preocupación se ha intentado generar diferentes mecanismos para prevenir estos acontecimientos, sin embargo, más que contrarrestarlos en el momento del mismo suceso, es de vital importancia dar un aviso oportuno del tipo de situación que posiblemente se esté enfrentando el paciente a los familiares de los afectados. El riesgo de muertes por enfermedades isquémicas se puede prevenir si los pacientes cuentan con mecanismos de envió de información sobre el ritmo cardiaco en tiempo real, el problema radica en que en Colombia este tipo de soluciones no han sido implementadas.

Los monitores de frecuencia cardiaca inalámbricos utilizan una correa de pecho, estos realizan una transferencia

188

Tlamati, Número Especial 3 CICOM 2014 El análisis del entorno es de donde parte la investigación, en el que a raíz de dar solución a la problemática planteada se realiza un análisis de necesidades e infraestructura tecnológica. Con respecto al análisis entorno a la problemática planteada, se encuentra que en Colombia la principal causa de muertes está dada por enfermedades isquémicas del corazón, estas “seguirán subiendo de manera crítica, dado que no se ha podido estabilizar la prevalencia de los factores de riesgo y todo indica que las políticas públicas desarrolladas hasta ahora son ineficientes” [4]. De modo que el aporte de la aplicación está orientado a contribuir en la detección del riesgo de afecciones cardíacas para minimizarlo y contrarrestarlo y su impacto social en ese sentido sería significativo. Según la profesional Fanny Rincón con la evolución propia del sistema de salud en el país, es posible implementar una cobertura que pueda atender esta epidemia en una forma sostenible y con calidad.

Como primer instancia y después de evaluar varios dispositivos existentes comercialmente que monitorean signos vitales, cada uno con diversas características, incluso algunos de los sistemas heart-rate monitor pueden interactuar con dispositivos MP3 player [17], algunos de ellos se pueden implementar en arquitecturas portables [19] u online [18], para elegir el dispositivo de monitoreo a implementar se tuvieron en cuenta dos parámetros fundamentales 1.) Signos vitales a monitorear, 2.) Medio de transmisión entre el dispositivo y el móvil, 3) Tecnología móvil que utiliza, 4) Herramienta de desarrollo disponible (SDK). Una vez realizado el sondeo se optó por adquirir el sensor de ritmo cardiaco para android Zephyr HxM Bluetooth (Figura 3) que conecta a través de la tecnología inalámbrica bluetooth. Es usado por deportistas pero se plantea dar un uso médico, ya que presenta las características que se necesitan para capturar la frecuencia cardiaca.

Por otra parte al analizar las tecnologías existentes que atiendan este tipo de problemáticas en Colombia y con el propósito de fundamentar la presente investigación, se encontraron algunos trabajos relacionados que existen o se desarrollan sobre el tema objeto de este estudio y que fueron de ayuda en algunos aspectos de la investigación: Sistema de Monitoreo Remoto. DIMAR. y Sistema de monitoreo de Naves VMS, aplicativos de la dirección generalmaritima Colombiana que usan trinagulación GPS, Persos, aplicativo de mensajes SOS con geolocalización, datos importantes de móviles con tecnología 3G y 4G en Colombia, software para monitorear estado de salud vía teléfono celular, entre otros. A sí mismo existen sistemas de monitoreo cardíaco denominados comúnmente como Hear-Rate Monitor, estos sistemas sido usados para detección de contracciones uterinas [9], también han sido ampliamente usados en aplicaciones deportivas [10], medición de frecuencia cardiaca [11].

Figura 3. Zephyr HxM

Para la selección del sistema operativo a utilizar en el dispositivo móvil se realizó un análisis de desempeño y características de las plataformas Android y iOS. Para el desarrollo de la plataforma, se seleccionó entonces el sistema Android por ser el más difundido dentro de los dispositivos móviles y por su economía para ser incluyentes con poblaciones de bajos recursos.

Los sistemas heart-rate monitor se pueden integrar con tecnologías como bluetooth [12], wireless [13], datos de gran importancia ya que el aplicativo propuesto se basará en estas tecnologías. Al finalizar esta fase se han documentado tanto las necesidades del entorno como requerimientos que se consideran importantes para el sistema de alertas.

Por otra parte para el diseño y desarrollo del software después de evaluar las bondades y desventajas de diferentes metodologías como RUP, MSF, XP, Scrum, AUP, ICONIX y SUM, además de nuevas metodologías recomendadas como MEMS [20] recomendada para los sistemas Heart Rate Monitor se plantea la metodología ICONIX (Figura 4), por ser una metodología ágil pero que permite documentación.

3.1.2. Análisis de la Base del Conocimiento En la etapa de construcción de la base de conocimiento se realiza un estudio de tecnologías necesarias para cubrir los requerimientos planteados en la fase anterior. Igualmente se realizó un estudio de las diferentes metodologías existentes para realizar el desarrollo del aplicativo y así analizar su viabilidad de utilización en la investigación propuesta, y se concluye con el desarrollo de las etapas de la metodología seleccionada. Con el fin de presentar una solución al problema propuesto, es necesario tomar ventaja de los dispositivos ya existentes que controlan ciertos signos vitales y combinarlos con la portabilidad y facilidad de manejo de los dispositivos móviles, de tal manera que nos permita diseñar una aplicación que fusione estas características y permita a las personas conocer información relevante del estado de salud del paciente a tiempo.

Figura 4. Modelo de ICONIX [6] La metodología a implementar para el desarrollo del aplicativo ICONIX se encuentra encajada dentro de las fases

189

Tlamati, Número Especial 3 CICOM 2014 finales de la metodología basada en el diseño usada para enmarcar todo el contexto del desarrollo del proyecto. A continuación se presenta la relación que presentaran las dos metodologías en el marco del desarrollo del sistema de alertas de signos vitales a través de dispositivos móviles.

dispositivo registra las señales de la frecuencia cardíaca y transfiere la información a una aplicación móvil cada cierto tiempo. Esta aplicación recibe la información y tiene la capacidad de consumir un web service, el cual tendrá la funcionalidad de enviar los datos de la frecuencia cardíaca, cada cierto tiempo, por medio de la red celular a una base de datos alojada en un servidor remoto. En caso de que ocurra una alteración en la frecuencia cardíaca, el aplicativo envía un correo electrónico alertando la situación a las personas encargadas de monitorear al paciente (familiares, doctor, etc.) incluyendo datos relevantes como frecuencia cardíaca, posición GPS y mapa de la ubicación del paciente.

Tabla 1: Relación entre la metodología de investigación y metodología RUP Fase según Ciencia del Diseño Análisis del entorno

Análisis de la base del conocimiento

Construcción y evaluación del sistema propuesto

Objetivo propuesto de investigación 1.Análisis de necesidades, infraestructura tecnológica 2. Marco conceptual, Evaluación de metodologías de desarrollo de software, Establecimiento Metodología de desarrollo a implementar. 3.Desarrollar la solución tecnológica móvil propuesta 4.Probar la solución tecnológica

Fase según ICONIX

Análisis de Requisitos Análisis y Diseño Preliminar Diseño

El webservice alojado en el servidor remoto se encargará de capturar la información enviada desde la aplicación celular y guardarla en una base de datos, para en dado caso de que se desee obtener información sobre el estado de salud del paciente en cierto tiempo determinado, el servicio generará un reporte y será enviado al paciente o a las personas que están monitoreando al paciente.

Implementación

Los parámetros de configuración acerca de los datos de las personas encargadas del paciente, se harán en la aplicación. De esta forma, el sistema cuenta con los siguientes componentes: • Transmisor de frecuencia cardíaca Bluetooth® • Teléfono móvil del paciente con sistema operativo Android.

3.1.3. Construcción y evaluación del sistema propuesto

• Aplicativo instalado en el móvil del paciente, el cual se encargará de enviar las alertas (correo electrónico).

La última fase se desarrolla desde el punto del diseño dando paso a la implementación del sistema diseñado realizando la generación de código, realizando pruebas durante el desarrollo y posteriores a la implementación demostrando que se cumplieron con los requerimientos que se plantearon inicialmente.

• Servicio encargado de guardar la información en la base de datos y generar los reportes solicitados desde la aplicación. Cabe aclarar que el sistema cuenta con un sistema de usuarios, perfiles y seguridad requeridos, con lo cual se hace frente a la privacidad y reserva de la información.

Desarrollo de la solución Tecnológica

Después de superar la etapa de diseño según la metodología ICONIX, se dio lugar a la construcción del Sistema propuesto, etapa en la cual se desarrollaron procedimientos y funciones necesarias de acuerdo a las pautas planteadas en la fase de diseño inicial, igualmente se desarrollaron los manuales de usuario necesarios para dar claridad al desarrollo de la herramienta y permitir un paso entre esta etapa y la siguiente correspondiente a las pruebas.

De la fase anterior se obtuvo el diseño de solución de software a implementar obteniendo como resultado el esquema presentado (Figura 5)

Pruebas Funcionamiento Solución Tecnológica El aplicativo debe ser descargado en un teléfono celular que cuente con el sistema operativo android y la aplicación se puede ubicar en el menú. Al ingresar la aplicación aparecerá un primer menú solicitando la conexión con el dispositivo de medición de frecuencia cardíaca a través de bluetooth, el dispositivo debe estar ubicado en el pecho del paciente para que pueda empezar a enviar las señales por medio de bluetooth.

Figura 5: Esquema Solución Tecnológica Inicialmente, existe un monitor de ritmo cardíaco con tecnología inalámbrica Bluetooth, el cual va sujetado con una correa y se ubica en la parte del tórax del paciente. El 190

Tlamati, Número Especial 3 CICOM 2014 Inicio aplicación Una vez realizada la configuración, se muestra la pantalla principal de la aplicación, la cual muestra el nombre del dispositivo al cual se encuentra conectado, el estado de la batería del dispositivo bluetooth y el ritmo cardíaco del paciente.

Figura 6. Menú de inicio de la aplicación Configuración aplicación Una vez conectada la aplicación con el dispositivo de frecuencia cardíaca, en el primer ingreso se deben configurar los datos del paciente y las personas de contacto con el fin de relacionar la información recibida del dispositivo con el paciente que lo está usando.

Figura 9: Pantalla principal

Si la aplicación detecta una anomalía en el ritmo cardíaco del paciente según los datos ingresados inicialmente, se generará automáticamente una alerta a través de un mensaje de correo electrónico a sus contactos y médico de cabecera con la información de la alerta y la ubicación del paciente.

Figura 7: Registro del paciente

Figura 10. Correo de alerta

Se puede generar un reporte del historial del paciente en cualquier momento con el botón solicitar reporte o configurar nuevamente la aplicación con el botón Configuración.

Figura 8: Registro de contactos

191

Tlamati, Número Especial 3 CICOM 2014 no realiza actividad alguna. Para solucionar este problema se hizo necesario programar usando directamente el dispositivo móvil como emulador direccionado en la máquina virtual de trabajo desde el computador. Con esta estrategia se aceleró el rendimiento de ejecución de la aplicación en tiempo de desarrollo. Otra gran ventaja de implementar ésta ultima estrategia, es que los errores que se presentan son los que realmente se van a presentar cuando se tenga la aplicación ejecutando desde el dispositivo móvil, esto se debe a que en verdad se trabajó con el poder de cómputo del dispositivo móvil. Cuando la aplicación se ejecuta al lado de otros dispositivos que tienen activado el bluetooth, se presentan errores frecuentes de transferencia debido a la sensibilidad e inestabilidad del protocolo. La metodología ICONIX mostró mayor efectividad para el desarrollo de aplicaciones móviles en comparación con metodologías como RUP, debido a la facilidad inherente en ICONIX para la generación temprana de prototipos. De otra parte, la generación temprana de prototipos alivio en muchas ocasiones las diferencias entre los desarrolladores y los asesores médicos que solicitaban unas ciertas funcionalidades, sin embargo ICONIX, provocó que muchos usuarios pensaran en el desarrollo de software como una actividad fácil, por cuanto confundían el prototipo con una aplicación final. Se recomienda en futuros trabajos ser más claro con los usuarios finales y explicarles que los prototipos son aplicaciones no funcionales que se construyen para poner de acuerdo a las partes interesadas, pero que en ningún caso implica que el desarrollo móvil es tan sencillo como la mayoría de usuarios creen.

Figura 11. Información del correo de alerta

4. RESULTADOS PRELIMINARES Se Evaluaron las diferentes metodologías de desarrollo de software y se determinó usar la metodología ICONIX por ser la que se acoplaba más al desarrollo del proyecto. Se Desarrolló un sistema de alertas que se sincroniza con un lector de frecuencia cardiaca y recopila dicha información generando un sistema de alertas que envía a través de un mensaje de texto junto con su ubicación.

6. TRABAJOS FUTUROS

En la primera parte de desarrollo del proyecto se logró evidenciar la viabilidad del mismo y en sus fases finales comprobar su funcionalidad.

Se analiza la viabilidad de integrar otros servicios a la aplicación con el fin de brindar una mejor calidad de respuesta al usuario. Por lo que se ha encontrado que existe una empresa llamada Atartel Comunicaciones, la cual brinda el servicio de realizar notificaciones a través de llamadas telefónicas a destinos móviles o fijos, si se integra este servicio al aplicativo, al momento de que el dispositivo genere una alerta y se envíe el correo electrónico, se puede realizar llamadas masivas a los contactos con un mensaje informando que se ha presentado una inminencia. [8]

Así mismo, Se están realizando pruebas de usabilidad con dos diferentes personas un adolescente con enfermedad de discapacidad y una persona del común para realizar un comparativo. De la información obtenida se podrán plantear acciones de mejora con el aplicativo, tanto de amigabilidad con el usuario como de funcionalidad del aplicativo.

5. CONCLUSIONES

Se puede integrar el trabajo mostrado con arquitecturas como Client Dispatcher Server, lo cual permitirá en el mediano plazo a los usuarios del sistema de alertas y signos vitales, no tener que hacer configuraciones adicionales al momento de instalar el sistema, no tener que conocer los detalles de comunicación con los proveedores de comunicaciones para la realización de notificaciones.

En el desarrollo del proyecto se logró evidenciar como las APIS de android 4X tienen un mejor rendimiento con respecto a las APIs 3.X y 2X de Android. La realización de validaciones teóricas no generaron resultados satisfactorios con respecto a la descripción del funcionamiento real del sistema, con lo cual fué de gran utilidad las pruebas basadas en frameworks de prueba enfocados a dispositivos móviles.

En el caso de hacer integración de este sistema con otros sistemas médicos se deben implementar estándares que faciliten el intercambio electrónico de información clínica como el HL7.

El desarrollo de aplicaciones para móviles basada en emuladores instalados sobre computadores de escritorio presenta múltiples problemas, entre los que se encuentra la dificultad de testeo real acerca del funcionamiento de la aplicación en un dispositivo concreto. De otra parte las implementaciones de bluetooth para los emuladores no fueron nada funcionales, debido a que el simulador muestra estas funcionalidades, pero al momento de ejecutarlas se bloquea y

7. REFERENCIAS [1] Roberth G. Figueroa1, Camilo J. Solís2, Armando A. Cabrera3, Metodologías tradicionales vs. Metodologías

192

Tlamati, Número Especial 3 CICOM 2014 ágiles Universidad Técnica Particular de Loja, Escuela de Ciencias en Computación

[12] Liu Guo-cheng; Yu Hong-yang, "Design and implementation of a Bluetooth 4.0-based heart rate monitor system on iOS platform," Communications, Circuits and Systems (ICCCAS), 2013 International Conference on , vol.2, no., pp.112,115, 15-17 Nov. 2013. DOI: 10.1109/ICCCAS.2013.6765297

[2] Hevner, A., March, S., Park, J., Ram, S. 2004. Design Science in Information Systems Research, MIS Quarterly (28:1), pp. 75-105. [3] Fernando Ruiz G. 2013. ¿De qué morimos los colombianos?(Agosto 7, 2013). DOI= http://www.elespectador.com/noticias/salud/de-morimoslos-colombianos-articulo-438629

[13] Anh Dinh; Tao Wang, "Bandage-size non-ECG heart rate monitor using ZigBee wireless link," Bioinformatics and Biomedical Technology (ICBBT), 2010 International Conference on , vol., no., pp.160,163, 16-18 April 2010. DOI: 10.1109/ICBBT.2010.5478989

[4] PORTALHUARPE. Metodología ICONIX [en línea]. [citado en 20 de enero de 2014] http://www.portalhuarpe.com.ar/Seminario09/archivos/M etodologiaICONIX.pdf

[14] Hailiang Mei; Widya, I.; Van Halteren, A.; Erfianto, B., "A Flexible Vital Sign Representation Framework for Mobile Healthcare," Pervasive Health Conference and Workshops, 2006 , vol., no., pp.1,9, Nov. 29 2006-Dec. 1 2006

[5] UNIVERSIDAD NACIONAL. Muertes por enfermedades coronarias aumentará casi al doble en 2021, (24 de Abril de 2014). DOI=http://www.agenciadenoticias.unal.edu.co/ndetalle/ article/muertes-por-enfermedades-coronariasaumentaran-casi-al-doble-en-2021.html

[15] Zubairi, Junaid Ahmed, "Aggregation scheme implementation for vital signs data over the network," High-Capacity Optical Networks and Enabling Technologies (HONET), 2009 6th International Symposium on , vol., no., pp.129,133, 28-30 Dec. 2009

[6] Rosen, Scott. 2001. Introduction to the ICONIX Process of Software Modeling (Abril 20, 2014). DOI=http://www.informit.com/articles/article.aspx?p=16 7902

[16] Lin Xu; Dagang Guo; Tay, F.E.H.; Shusong Xing, "A wearable vital signs monitoring system for pervasive healthcare," Sustainable Utilization and Development in Engineering and Technology (STUDENT), 2010 IEEE Conference on , vol., no., pp.86,89, 20-21 Nov. 2010

[7] NOTICIAS RCN. 2014 Cada hora mueren seis personas en Colombia por paro cardíaco (22 de Abril de 2014). DOI=http://www.noticiasrcn.com/bienestar-abcmedicus/cada-hora-mueren-seis-personas-colombia-parocardiaco

[17] Jaywoo Kim; Mi-hee Lee; Hyoung-Ki Lee; Kiwan Choi; SeokWon Bang; Sangryong Kim, "Heart Rate Monitor for Portable MP3 Player," Engineering in Medicine and Biology Society, 2005. IEEE-EMBS 2005. 27th Annual International Conference of the , vol., no., pp.5207,5210, 17-18 Jan. 2006. DOI: 10.1109/IEMBS.2005.1615652

[8] ARTARTEL, Notificaciones masivas telefónicas, (24 de Mayo de 2014). DOI= http://atartel.com/ [9] Chih-Lung Lin; Tz-Yi Liu; Han-Chang Wu; ShuennTsong Young; Maw-Huei Lee; Te-Son Kuo, "The design of a portable fetal heart rate and uterine contraction monitor," Engineering in Medicine and Biology Society, 1996. Bridging Disciplines for Biomedicine. Proceedings of the 18th Annual International Conference of the IEEE , vol.1, no., pp.51,52 vol.1, 31 Oct-3 Nov 1996. DOI: 10.1109/IEMBS.1996.656841

[18] Godinez, M.; Jimenez, A.; Ortiz, R.; Pena, M., "On-line fetal heart rate monitor by phonocardiography," Engineering in Medicine and Biology Society, 2003. Proceedings of the 25th Annual International Conference of the IEEE , vol.4, no., pp.3141,3144 Vol.4, 17-21 Sept. 2003. DOI: 10.1109/IEMBS.2003.1280808 [19] Yaofeng Wen; Rong Yang; Yuquan Chen, "Heart rate monitoring in dynamic movements from a wearable system," Medical Devices and Biosensors, 2008. ISSSMDBS 2008. 5th International Summer School and Symposium on , vol., no., pp.272,275, 1-3 June 2008. DOI: 10.1109/ISSMDBS.2008.4575072

[10] Mahmood, N.H.; Uyop, N.; Zulkarnain, N.; Harun, F.K.C.; Kamarudin, M. F.; Linoby, A., "LED indicator for heart rate monitoring system in sport application," Signal Processing and its Applications (CSPA), 2011 IEEE 7th International Colloquium on , vol., no., pp.64,66, 4-6 March 2011. DOI: 10.1109/CSPA.2011.5759843

[20] Bassiachvili, E.; Stewart, R.; Shavezipur, M.; Nieva, Patricia, "A MEMS capacitive, passively powered heart rate monitor: Design and analysis," Microsystems and Nanoelectronics Research Conference, 2008. MNRC 2008. 1st , vol., no., pp.81,84, 15-15 Oct. 2008. DOI: 10.1109/MNRC.2008.4683383

[11] Zuckerwar, Allan J.; Pretlow, R.A.; Stoughton, J.W.; Baker, D.A., "Development of a piezopolymer pressure sensor for a portable fetal heart rate monitor," Biomedical Engineering, IEEE Transactions on , vol.40, no.9, pp.963,969, Sept. 1993 DOI: 10.1109/10.245618

193

Tlamati, Número Especial 3 CICOM 2014

Software para evaluar conocimientos / resolución de problemas en modelos por ciclos propedéuticos Lizeth Martínez

Jenny P. Ortiz

Universidad Distrital Francisco José de Caldas Bogotá D.C., Colombia

Universidad Distrital Francisco José de Caldas Bogotá D.C., Colombia

[emailprotected]

[emailprotected]

Knowledge test, troubleshooting, Rasch model, evaluation, psychometry.

(ingeniería), aunque no difiere el haber obtenido dicho título en una institución diferente a la Universidad Distrital; otros requisitos establecidos son el reporte del examen de estado ICFES (Instituto Colombiano para el Fomento de la Educación Superior), certificado de notas de la con que se pueda ver el promedio del primer nivel (carrera tecnológica), y se tienen en cuenta la afinidad del programa y la experiencia laboral después del grado de tecnólogo, si la posee. Ante ello, se evidencia que el proceso de selección de los aspirantes a ingeniería presenta ciertas deficiencias, debido a que los estudiantes que ingresan de otras universidades o institutos cuentan con un grado de formación diferente, muchas veces repercutiendo en aspectos tales como: dificultad para cursar y aprobar materias, incremento en el trabajo por parte de los docentes, represamiento en materias que hacen parte de la columna vertebral del programa, y la presencia de un alto riesgo de caer en una situación de prueba académica. Es así como se plantea una alternativa teniendo en cuenta las debilidades antes mencionadas, al realizar una prueba de conocimientos / resolución de problemas mediante un software que permita contrarrestar estas deficiencias, empleando una teoría basada en test psicométricos y el modelo internacional de evaluación Rasch para la elaboración y seguimiento de las preguntas; mejorando de esta forma el modelo de selección establecido para el ingreso de los estudiantes al nivel de ingeniería, analizando directamente los factores necesarios para continuar la formación educativa de alta calidad del segundo nivel de la Facultad Tecnológica.

1. INTRODUCCIÓN

2. PLANTEAMIENTO DEL PROBLEMA

Actualmente, en la Facultad Tecnológica de la Universidad Distrital Francisco José de Caldas, es requisito poseer título de tecnólogo para postularse a los programas del segundo nivel

El actual sistema de admisiones para el segundo nivel (ingeniería) de la Facultad Tecnológica no permite evaluar los conocimientos / resolución de problemas, con los cuales cuenta el aspirante; generando diversos inconvenientes en la formación académica de los estudiantes admitidos. Debido a la necesidad que existe por parte de la Universidad, de fortalecer sus programas, en un mejoramiento continuo y progresivo en el proceso de enseñanza / aprendizaje de estudiantes, al igual que la búsqueda de una mejor calidad de educación y acreditación, que pretende ofrecer una formación integral y de calidad a sus estudiantes; la Facultad Tecnológica considera fundamental la creación de una prueba que evalúe de manera justa y equitativa los conocimientos / resolución de problemas de los aspirantes al segundo nivel, de tal manera que ingresen a dichos programas, aquellas personas que cuentan con la formación académica necesaria para continuar con sus

RESUMEN En este documento se plasma el proceso seguido en el desarrollo de un software para evaluar conocimientos / resolución de problemas de aspirantes al segundo nivel de los programas que ofrece la facultad tecnológica de la Universidad Distrital Francisco José de Caldas. En primer lugar, teniendo como base el modelo de evaluación Rasch, se aborda el análisis y diseño del software. Posteriormente, la implementación de éste y las pruebas de funcionalidad correspondientes. Por último, se muestran las conclusiones obtenidas de este proyecto.

Palabras clave Prueba de conocimientos, resolución de problemas, modelo Rasch, evaluación, psicometría.

ABSTRACT In this paper, we describe the process followed in the development of prototype software for assess knowledge / troubleshooting to aspirants at programs of second level of the technologic seat at Universidad Distrital Francisco José de Caldas. First, we take like base the evaluation model Rasch, to analyze and to design of the prototype. Subsequently, this implementation and functionality testing. Finally, we show the conclusions obtained from this project.

Keywords

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

194

Tlamati, Número Especial 3 CICOM 2014 estudios de ingeniería, y de esta forma minimizar los problemas presentes en el actual sistema de admisiones. Con el ánimo de contribuir en la formación profesional y en una mejor selección de aspirantes, se implementará y desarrollará un software para la evaluación de conocimientos / resolución de problemas de los aspirantes que desean acceder al segundo nivel de estudios, correspondiente a los programas de ingeniería de la Facultad Tecnológica de la Universidad Distrital Francisco José de Caldas. Para calcular el nivel de conocimiento / resolución de problemas se empleará teoría basada en test psicométricos, los cuales permiten valorar aspectos como conocimiento, rasgos de la personalidad, habilidades, capacidades mentales, y estado de opinión o actitud. Un test pretende medir lo que hay que medir optimizando las capacidades personales y académicas del aspirante, brindando elementos objetivos para continuar con la formación profesional. De igual forma con una prueba psicométrica se selecciona entre diferentes aspirantes los más aptos para ingresar al segundo nivel, tratando de mantener o aumentar la eficiencia y el desempeño académico y personal. Al realizar esta prueba se busca mejorar la selección de los aspirantes, puesto que se evaluarán directamente los conocimientos / resolución de problemas, lo cual contribuirá a fortalecer y enriquecer los procesos académicos ofrecidos en el segundo nivel, y a su vez reducirá el riesgo de que un estudiante entre en prueba académica, exista el represamiento de estudiantes principalmente en el área de ciencias básicas, creación de nuevos grupos con mayor cantidad de alumnos y mayor tiempo de culminación de los estudios para obtener el título de ingeniero.

3. ESTRUCTURA FORMACIÓN PROPEDÉUTICOS

5. Certificado de experiencia laboral, después del grado de tecnólogo si la posee. 6. Certificado de estrato socioeconómico de residencia del aspirante. 7. Certificado del Colegio donde terminó estudios de bachillerato, y en la cual se indique el valor mensual de la pensión. 8. Declaración de Renta o Certificado de Ingresos y Retenciones de quien costeara los estudios. Este certificado debe ser expedido en formato de la Dirección de Impuestos y Aduanas Nacionales (DIAN). Para la valoración de los puntajes correspondientes al examen de Estado ICFES, promedio académico, afinidad con la carrera y experiencia laboral, se tienen en cuenta los siguientes parámetros: • Respecto al puntaje de ICFES se otorga el máximo puntaje de 300 puntos para el aspirante que presentará el mayor de éste y proporcionalmente para los demás, tanto para ICFES Nuevo como para el Antiguo. • En relación a la afinidad con cada carrera se asigna un total de 300 puntos a los aspirantes egresados de programas de Tecnología de La Facultad Tecnológica - Universidad Distrital Francisco José de Caldas. Los aspirantes egresados de programas de otras instituciones tendrán un puntaje ponderado de acuerdo a la afinidad con los programas de Tecnología de la Facultad Tecnológica. • Finalmente, la experiencia laboral (dada en meses, en este caso) se asigna el puntaje de la siguiente manera: si la Experiencia es mayor o igual a veinticuatro (24) meses, entonces el resultado es 100%, es decir, los 300 puntos posibles a obtener; en caso contrario, el número de meses de experiencia se multiplica por cien (100) y se divide en veinticuatro.

DEL MODELO DE POR CICLOS

Los programas estructurados en modelos de formación por ciclos propedéuticos, se organizan en niveles formativos secuenciales y complementarios. Cada programa que conforma la formación por ciclos propedéuticos debe conducir a un título que habilite para el desempeño laboral como técnico profesional, tecnólogo o profesional universitario, y debe tener una orientación metodológica propia que brinde una formación integral en el respectivo nivel, más el componente propedéutico para continuar en el siguiente nivel de formación. [1] La Facultad Tecnológica de la Universidad Distrital Francisco José de Caldas propende por la formación de la comunidad académica hacia la práctica y la investigación, por medio de la consolidación de vínculos con los sectores social, empresarial y académico en el ámbito local, nacional e internacional, generando de esta manera los lineamientos que realimenten los Proyectos Curriculares de la Facultad. La formación que imparte la Facultad Tecnológica es a través de ciclos propedéuticos, siguiendo los lineamientos definidos en el decreto 1295 del Ministerio de Educación Nacional. Actualmente el proceso de admisión para aspirantes al nivel de ingeniería consiste en los siguientes requisitos: [2] 1. Dos hojas del comprobante de inscripción impresas de Internet. 2. Tarjeta o reporte del examen de estado ICFES. 3. Título de tecnólogo. 4. Certificado de notas Original.

Nótese que el examen ICFES es uno de los requisitos para el ingreso al segundo nivel (Ingeniería) de los programas ofertados en la Facultad Tecnológica, Universidad Distrital Francisco José de Caldas; y del mismo modo, dicho examen es requisito para el ingreso al primer nivel (Tecnología); lo cual implica una duplicidad en este requerimiento; de lo anterior se puede deducir que se están evaluando los mismos criterios dos veces, sin embargo, las habilidades cognitivas que se requieren para un estudiante de segundo nivel son diferentes y más orientadas en área de ciencias básicas y en el área específica de formación al cual se presentan. Por otro lado, luego de haber formado más de mil ingenieros bajo la modalidad de ciclos propedéuticos, se observa que los estudiantes del segundo nivel tienen debilidades cognitivas en el área de ciencias básicas y en el área profesional; razón ésta para pensar en que la universidad elabore y aplique un examen a los aspirantes del segundo nivel, con el fin de medir conocimientos / resolución de problemas. De igual forma, con ésta propuesta de examen, se eliminaría el examen ICFES como requisito para el segundo nivel.

4. EVALUACIÓN PSICOMÉTRICA En comienzos del siglo XX hubo un gran desarrollo de las técnicas de evaluación centrada en los denominados “test mentales” [3], aunque algunos autores prefieren referirse a ellos como “test de la persona” (McReynolds, 1986). 195

Tlamati, Número Especial 3 CICOM 2014 El seguimiento de un modelo, o la particular mezcla de varios de ellos, es la matriz originaria de las prácticas evaluativas de los profesionales en la educación y en otros ámbitos. Bajo el término evaluación psicológica se incluyen actividades de acuerdo a los distintos enfoques, contando con conceptualizaciones y marcos de referencia teóricos correspondientes en cada caso. [4] El análisis de los modelos existentes en evaluación psicológica sirve para clasificar y estructurar los enfoques del proceso evaluativo observados en los autores. Entre estos modelos de evaluación psicológica, se trata el Modelo Psicométrico, en el cual se estudian las diferencias individuales en distintas pruebas para identificar dimensiones o rasgos. Se utilizan en Test de inteligencia / aptitudes y en cuestionarios de personalidad. [4] La Psicometría es una disciplina científica, en el marco de la Metodología de las Ciencias del Comportamiento y directamente relacionada con el campo de la medición de aspectos psicológicos de una persona (conducta humana), como son: [5] • Conocimiento • Rasgos de la Personalidad • Habilidades • Capacidades Mentales • Estado de Opinión o Actitud

Las ventajas del modelo Rasch respecto a la TCT y a otros modelos TRI han sido ampliamente difundidas, entre ellas están: - la medición conjunta, que significa que los parámetros de las personas y de los ítems se expresan en las mismas unidades y se localizan en el mismo lugar, - la objetividad específica, que significa que una medida sólo puede ser considerada válida y generalizable si no depende de las condiciones específicas con que ha sido obtenida, especificar los errores típicos de medida, entre otras ventajas importantes al momento de examinar los ítems en una evaluación de conocimientos.

A un nivel práctico, la psicometría hace uso intensivo de cálculos y análisis estadísticos para extraer información útil a partir de la administración repetida de un mismo test a un grupo amplio de personas. De este modo, la psicometría se ocupa de la teoría y práctica en la elaboración, evaluación y aplicación de instrumentos de medición dentro de la Psicología. [5] Los tests psicométricos utilizan el concepto de medición y tienen su fundamento en la psicometría. El primer test psicométrico fue la Escala Métrica de la Inteligencia creada por los franceses Binet y Simón (1905), con lo que se introdujo en psicología el concepto de edad mental. [6] Desde las primeras décadas del pasado siglo los tests psicométricos han sido construidos siguiendo el enfoque de la Teoría Clásica de los Tests, creada por el psicólogo inglés Charles Spearman en la segunda década del siglo XX; en las tres últimas décadas del mismo siglo apareció otro enfoque para la construcción de tests que ha sido llamado Teoría de Respuesta al Ítem (TRI), sin embargo, existen algunos tests basados en esta teoría. Los tests psicométricos han tenido un gran avance relacionado con la psicometría, la cual se ocupa de las mediciones mentales. [7]

Figura 1 Representación arquitectura multicapa [9]

6. ARQUITECTURA DEL SOFTWARE Para la implementación del software de evaluación de conocimientos / resolución de problemas, se establece una arquitectura multicapa, la cual consiste en un conjunto ordenado de subsistemas, cada uno de los cuales están constituidos en términos de los que tiene por debajo y proporciona la base de la implementación de aquellos que están por encima de él. Los objetos de cada capa suelen ser independientes, aunque suelen haber dependencias entre objetos de distintas capas. Existe una relación cliente / servidor entre las capas inferiores, que son las que proporcionan los servicios, las capas superiores y los usuarios de estos servicios. [9] La aplicación se basa en una arquitectura multicapa, específicamente en una arquitectura de tres capas: • Capa de presentación, en ella se presenta la interfaz gráfica a los usuarios del sistema: los estudiantes o personas que se inscriben al segundo nivel de la Facultad Tecnológica, o aquellos tecnólogos en cualquier área de formación; ellos son los encargados de resolver la prueba de conocimientos y resolución de problemas. Los profesores, los cuales están divididos en dos grupos, profesores del área genérica o del área específica, los del área genérica están relacionados con las áreas de ciencias básicas (matemáticas, humanidades, etc.) y los profesores específicos van relacionados directamente con un programa académico. Estos profesores son los encargados de enviar nuevas preguntas para la prueba de conocimientos y resolución de problemas. El administrador, quien es el encargado de ingresar nuevos usuarios, tiene acceso a la base de datos, consulta y actualiza la información de los usuarios, las preguntas y los programas de la Facultad Tecnológica. Finalmente los revisores, que son los encargados de cambiar el estado de las preguntas, después de que éstas son evaluadas por un comité de evaluación, y de esta forma selecciona si las preguntas son aprobadas, rechazadas o aprobadas luego de realizar modificaciones indicadas.

5. MODELO RASCH [8]

Desde comienzos del siglo XX, la construcción y el uso de tests psicométricos se ha basado principalmente en la Teoría Clásica de los Tests (TCT), un modelo simple, flexible y muy conocido, pero que no está exento de limitaciones. En 1960 el matemático danés Georg Rasch propuso un modelo de medida que permite solventar muchas de las deficiencias de la TCT y construir pruebas más adecuadas y eficientes. Este modelo se fundamenta en los siguientes supuestos: 1. El atributo que se desea medir puede representarse en una única dimensión en la que se situarían conjuntamente las personas y los ítems. 2. El nivel de la persona en el atributo y la dificultad del ítem determinan la probabilidad de que la respuesta sea correcta.

Capa de datos o persistencia, este nivel es el encargado de almacenar toda la información de la aplicación, además de asegurar el acceso a los datos de manera controlada y segura. Este nivel lo conforma la base de datos y el software de gestión de base de datos.

Capa de negocio, en ella se proporciona la funcionalidad del software, ya que es la encargada de realizar todas las operaciones internas a nivel de aplicación.

Para el software se estima el acceso simultáneo, y una concurrencia de 1000 personas. 196

Tlamati, Número Especial 3 CICOM 2014

6.1 Esquema de la arquitectura

7.1 Prueba de rendimiento del software

En la siguiente figura se representa una vista general del diagrama de arquitectura, la cual está compuesta por un navegador de Internet, la aplicación local, los servidores, los contenedores web, que proporcionan los elementos para alojar aplicaciones web y herramientas de software como lo son máquinas virtuales y la base de datos.

Las pruebas de rendimiento son las pruebas que se realizan, desde una perspectiva, para determinar lo rápido que realiza una tarea un sistema en condiciones particulares de trabajo. También puede servir para validar y verificar otros atributos de la calidad del sistema, tales como la escalabilidad, fiabilidad y uso de los recursos. Las pruebas de rendimiento son un subconjunto de la ingeniería de pruebas, una práctica informática que se esfuerza por mejorar el rendimiento, enmarcándose en el diseño y la arquitectura de un sistema, incluso antes del esfuerzo inicial de la codificación. [13]

Figura 2 Esquema de arquitectura del software

El navegador es un programa que permite visualizar la información que contiene una página web, para la ejecución del software, para ello se recomienda hacer uso de los navegadores web Mozilla Firefox o Google Chrome, ya que estos permiten la visualización óptima de la aplicación, con todas sus funcionalidades, mientras el navegador Internet Explorer puede afectar el formato y diseño la aplicación. La aplicación local hace referencia al desarrollo del software para la evaluación de conocimientos / resolución de problemas de aspirantes al segundo nivel de los programas de la facultad tecnológica. El servidor se relaciona con el sistema operativo de Microsoft diseñado para servidores: Microsoft Windows Server 2008, ya que es la versión de servidor elegida para alojar la aplicación con todos sus componentes y funcionalidades. El entorno de ejecución permite alojar las alojar aplicaciones web. Finalmente la base de datos, donde se almacena toda la información del software y cuyo motor de base de datos es PostgreSQL. A continuación se detallan las herramientas de desarrollo del software utilizadas en este esquema: • Java: permite la comunicación entre la interfaz gráfica y la base de datos. Posee gran robustez ya que realiza verificaciones en busca de problemas tanto en tiempo de compilación como en tiempo de ejecución. Tiene la característica de ser portable, puesto que un programa Java puede ser ejecutado en diferentes entornos. Garantiza seguridad en el acceso a la aplicación y es escalable al permitir un buen rendimiento ante un aumento considerable de usuarios concurrentes, por estas características se eligió Java como lenguaje de programación para garantizar la seguridad a la hora de ingresar a la aplicación. [10] • Php 5: es un Lenguaje de programación usado generalmente en la creación de contenidos para sitios web, usado para crear contenido dinámico web y aplicaciones para servidores, dicho lenguaje de programación es utilizado para desarrollar la interfaz gráfica del software. [11] • PostgreSQL: es un potente sistema de base de datos objetorelacional de código abierto, tiene soporte completo para claves foráneas, uniones, vistas, disparadores y procedimientos almacenados (en varios lenguajes); es altamente escalable, tanto en la enorme cantidad de datos que puede manejar y en el número de usuarios concurrentes que puede administrar. [12] En este motor de base de datos se almacena toda la información del software.

7.2 Prueba de stress del software Una prueba de stress se realiza para observar el comportamiento de una aplicación bajo una cantidad de peticiones esperada. Esta petición puede ser el número esperado de usuarios concurrentes utilizando la aplicación y que realizan un número específico de transacciones durante el tiempo que tardan las peticiones. Esta prueba muestra los tiempos de respuesta de todas las peticiones importantes de la aplicación. [13] El esquema de pruebas utilizado consistió en ir aumentando el 100% de los accesos en cada prueba con el fin de evaluar el rendimiento de la aplicación con el máximo de usuarios estimado accediendo.

7.3 Herramienta JMeter utilizada para la prueba de stress Si bien la etapa de pruebas funcionales de una aplicación es sumamente importante, ya que a partir de las mismas se podrá contar con la aprobación del usuario final; en este trabajo se evaluó la utilización de la herramienta Jmeter en su versión versión 2.9, para la etapa de pruebas de rendimiento del servidor web del software para evaluar conocimientos / resolución de problemas de aspirantes al segundo nivel de los programas que ofrece la Facultad Tecnológica. Esta es una herramienta open source completa, implementada en Java que permite realizar pruebas de comportamiento funcional y medir el rendimiento. La cantidad de accesos o peticiones se simuló con esta herramienta, con el fin de representar la vista de usuario. Al tratarse de una aplicación a la cual podrán acceder muchos usuarios en forma simultánea, es indispensable estar seguros de una buena configuración del servidor donde correrá. Las pruebas realizadas dieron tiempos de respuestas aceptables para una cierta cantidad de usuarios concurrentes. El uso de la herramienta JMeter fue de gran ayuda para realizar estas pruebas, gracias a su flexibilidad de configuración y claridad de visualización de los resultados de las pruebas, lo que ayuda a su interpretación.

7.4 Plan de pruebas Para las pruebas de definieron 100, 500, y 1000 threads (cada hilo simula un acceso). Se espera que cuando el sistema esté funcionando se tengan 500 personas simultáneamente actuando con el rol de estudiante, administrador, revisor y profesor; dichos usuarios accederían en diferente tiempo con respecto al estudiante, y se tiene estimado que aproximadamente son 60 profesores, 60 revisores y 1 o 2 administradores; teniendo en total aproximadamente 113 o 114

7. FASE DE PRUEBAS Se realizaron pruebas de funcionalidad del software para evaluar conocimientos / resolución de problemas de aspirantes al segundo nivel de los programas que ofrece la facultad tecnológica, con el fin de identificar defectos y errores en los procesos desarrollados en el sistema. 197

Tlamati, Número Especial 3 CICOM 2014 accesos, los cuales se realizarían en tiempo diferente a los estudiantes que presentan la prueba de conocimientos y resolución de problemas. En resumen, la muestra que se tomó fue en base al número de estudiantes que accederían a la aplicación a presentar la prueba por ello se estableció que el plan de pruebas fuese de aproximadamente los 500 0 1000 personas accediendo al tiempo a la aplicación.

Respuesta al Ítem (TRI) y el modelo Rasch, las cuales no fueron implementadas en este software, ya que requieren del conocimiento de profesionales en el tema para ser analizadas con detenimiento. Asimismo desarrollar otro software de evaluación, utilizando otros modelos dentro del marco de la psicometría TRI.

10. REFERENCIAS [1] Decreto 1295 del 20 de Abril de 2010. Ministerio de Educación Nacional. Colombia. [En línea]. Disponible en: http://www.mineducacion.gov.co/1621/articles229430_archivo_pdf_decreto1295.pdf

8. CONCLUSIONES Con el desarrollo de la presente investigación se ha recopilado información que genera un acercamiento a la realización de un software de evaluación confiable y estructurado bajo los estándares del modelo Rasch en la psicometría TRI, permitiendo desarrollar exitosamente la prueba, así como garantizar un apropiado análisis de los resultados que arroja, con lo cual se evalúe de manera justa y equitativa a todos los estudiantes que aspiren ingresar al nivel de ingeniería de la Facultad Tecnológica, Universidad Distrital Francisco José de Caldas – Colombia. Se determinó que la prueba de conocimientos y resolución de problemas queda establecida bajo los requerimientos de un test psicométrico, debido a que las preguntas se establecen bajo el formato del modelo Rash y pasan un proceso de revisión y actualización, mediante el cual se establecen las pautas de validación de cada pregunta para ser admitida en la prueba a desarrollar por parte de los estudiantes. Las pruebas realizadas dieron tiempos de respuestas aceptables para una cierta cantidad de usuarios concurrentes. El uso de la herramienta JMeter fue de gran ayuda para realizar estas pruebas, gracias a su flexibilidad de configuración y claridad de visualización de los resultados, lo que ayuda a su interpretación. Con lo anterior se puede deducir que la evaluación podrá ser implementada para los aproximadamente 500 estudiantes que se presentan al segundo nivel de los programas que ofrece la Facultad Tecnológica. Con la generación de medidas estadísticas de los resultados obtenidos, se podrá conocer información del comportamiento académico de los estudiantes, observando así las respuestas dadas a las preguntas, correspondientes a cada programa académico y a la prueba general aplicada a todos los aspirantes.

[2] Requisitos de admisión al segundo nivel. [En línea]. Disponible en: http://www.udistrital.edu.co/admisiones/undergraduate.php [3] VELASCO HERRERA, Karla Vanessa. El maltrato infantil: Perspectiva psicodinámica en el desarrollo emocional. México: Universidad Michoacana de San Nicolás de Hidalgo, Facultad de Psicología, 2011. p. 10. [4] Modelos de evaluación. Capítulo 1. Editorial DCPE. p. 6. [5] Psicometría. [En línea]. Disponible en: http://www.gestiopolis.com/canales8/rrhh/psicometriacomo-ciencia-del-compotamiento-y-los-recursoshumanos.htm [6] Test psicométricos. [En línea]. Disponible en: http://www.buenastareas.com/ensayos/TestPsicometricos/174166.html [7] ALIAGA TOVAR, Jaime. Psicometria: Tests Psicométricos, Confiabilidad y Validez. p. 85. [8] PRIETO, Gerardo, DELGADO, Ana R. Análisis de un test mediante el modelo de Rasch: Psicotema. 2003. Vol. 15 Universidad de Salamanca, Facultad de psicología. p. 94. [9] MARTINEZ AROCA Francisco. Diseño e implementación de una tienda virtual. Universidad Politécnica de Valencia, 2009 pp. 29-30 [10] Ventajas de utilización de Java. [En línea]. Disponible en: http://www.java.com/es [11] PHP Vs Java. [En línea]. Disponible en: http://www.adictosaltrabajo.com/tutoriales/tutoriales.php?pa gina=PHPVsJava

9. TRABAJOS FUTUROS Se proyecta a futuro desarrollar un módulo de estadísticas mejorado con los estándares internacionales de la Teoría de

[12] Diferencias técnicas entre bases de datos. [En línea]. Disponible en: http://www.postgresql.org [13] Pruebas de rendimiento del software. [En línea]. Disponible en: http://www.emergys.com.mx/ofrecimientos/transformacionde-negocios/sw-quality-assurance-a-testing

198

Tlamati, Número Especial 3 CICOM 2014

Diagnóstico temprano de enfermedades visuales a partir de aprendizaje computacional Camilo Andrés León Cuervo

María Alejandra Bonilla Díaz

Estudiante de Tecnología en Sistematización de Datos Universidad Distrital Francisco José de Caldas Bogotá, Colombia (+57) 313 883 64 74

Estudiante de Tecnología en Sistematización de Datos Universidad Distrital Francisco José de Caldas Bogotá, Colombia (+57) 321 424 31 19

[emailprotected]

[emailprotected]

del órgano visual y un riesgo tras los posibles daños causados por los rayos ultravioletas. Adicional a estas razones, no se descartan las enfermedades visuales causadas por patologías genéticas.

ABSTRACT The community is exposed to different factors that affect eye health, this article discusses how could diagnose so early eye disease using as a basic tool the computational learning, having as support a database that classifies diseases by symptoms, using data mining to identify patterns that are of great importance in the diagnosis of diseases of eye health along with the KDD methodology and all involved in this development. Data generated by WEKA software that uses a number of techniques in which allows us to use a predictive model based on the use of Bayes' theorem , which is given on who analyzed if the result of the objectives for the diagnosis of eye diseases . This whole process will be revealed in this article where finally the results and the corresponding analysis of these will be indicated.

Los ojos como cualquier otra parte del cuerpo cumple un papel vital para el correcto funcionamiento del ser humano visto de forma integral, los ojos son un instrumento con el que cuenta el cuerpo humano para poder visualizar muchos de los objetos que hacen parte de su entorno, y así identificar el mundo que lo rodea. La medicina, en especial la optometría es indispensable para la generación de nuevos conocimientos y para la búsqueda de soluciones a los principales problemas de visión en la población. Es entonces donde el conocimiento de los expertos se hace imprescindible para el diagnóstico y solución de estas enfermedades. A partir de estos conocimientos, se plantea la generación de reglas que contengan información sobre los síntomas propios de cada enfermedad, estas apoyadas en diversas herramientas que de igual forma permitan identificar debilidades en la vista, por ejemplo, el diagnóstico de daltonismo, a partir de un sistema de identificación cromática; para que luego se permita la predicción temprana de enfermedades visuales y así lograr diagnosticar y dar tratamiento a estas enfermedades.

Keywords Data Mining, Visual diseases, Machine Learning.

1. INTRODUCCIÓN Las enfermedades visuales son molestas y pueden llegar a ocasionar graves trastornos para quienes las sufren. Los ojos, al igual que el resto de partes del cuerpo, pueden sufrir enfermedades que llegan a afectar su desarrollo y correcto funcionamiento. En la actualidad una de las partes del cuerpo más susceptibles a daños y trastornos son los ojos, los cambios climáticos y la exposición continua a los rayos solares, las nuevas tecnologías y el desarrollo de estas, implica una mayor exposición

El objetivo de este artículo es obtener un diagnóstico temprano de enfermedades visuales a partir de aprendizaje computacional, basado en un conjunto de datos que permitirá obtener información necesaria para dar diagnóstico o en algunos casos prevenir enfermedades visuales. Obteniendo así una ventaja frente a las enfermedades visuales que actualmente enfrenta la sociedad por daños comunes como los rayos ultravioletas, la exposición al medio ambiente entre otros.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

2. REFERENTES TEÓRICOS 2.1 Aprendizaje computacional. En el contexto de los sistemas artificiales, el aprendizaje, también denominado aprendizaje computacional, se puede entender como un proceso por el cual los parámetros libres del sistema se adaptan a través de una estimulación continuada con el entorno para construir una cierta función de aplicación.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

199

Tlamati, Número Especial 3 CICOM 2014 El aprendizaje computacional es un fenómeno que sucede a lo largo de un tiempo determinado, que puede corresponder a una cierta etapa dentro de la vida del sistema artificial o por el contrario se puede extender a lo largo de toda su vida. Habitualmente el tiempo en el que el sistema artificial aprende es limitado con relación a su tiempo de vida. Durante este intervalo, denominado fase de entretenimiento, el algoritmo de aprendizaje busca en su espacio de soluciones (o espacio de hipótesis) una solución compatible con un conjunto de muestras. Dicho conjunto se conoce con el nombre de conjunto de entrenamiento y corresponde a un número de ejemplos extraídos de un concepto que se quiere modelar empíricamente. Este concepto corresponde a una función o comportamiento determinado del sistema artificial que se quiere construir de forma automática a través del algoritmo de aprendizaje. [1]

3. DESARROLLO METODOLÓGICO 3.1 Estudio de dominio de la aplicación El conjunto de datos sobre el cual se realizaro el proceso de Minería de Datos, permite visualizar información de diferentes personas que han sufrido o sufren alguna enfermedad visual, sobre cada persona se relaciona su edad, genero, los síntomas que permitían definir determinada enfermedad, y relaciona al final la enfermedad que fue diagnosticada para la persona. Se pretende entonces, a través del análisis de la información obtenida, poder realizar un diagnóstico temprano de las enfermedades visuales. Con el análisis del conjunto de datos se intenta identificar los factores que puedan ser importantes para que una persona pueda o no padecer una enfermedad visual, entendiendo como factores a los patrones incidentes dentro de las personas que fueron diagnosticadas con una misma enfermedad. Además de identificar los síntomas que puedan coincidir con el diagnostico de determinada enfermedad. Para dicha labor se cuentan con 1013 registros. Algunos de los atributos contenidos en el conjunto de datos se muestran a continuación en la Tabla 1

La teoría del aprendizaje computacional permite el aprendizaje del sistema a partir de un número reducido de datos muéstrales y suministra las bases teóricas para extraer patrones y relaciones entre ellos, realizando un balance entre la complejidad y el rendimiento del sistema. Dicha teoría describe dos maneras claves de aprendizaje predictivo de gran importancia práctica, la primera es el método inductivo – deductivo en el que el modelo se desarrolla a partir de los datos disponibles como resultado de un proceso de aprendizaje inductivo, es decir, progresando desde los casos particulares a la relación general capturada por el modelo. El modelo obtenido se aplica a la predicción sobre nuevos datos utilizando la deducción, es decir, progresando de lo general a lo particular. [2]

Tabla 1. Atributos @relation enfermedades-visuales @attribute edad real @attribute abultamientos-en-el-párpado {si,no} @attribute ardor-en-los-ojos {si,no} @attribute arenosidad-del-ojo {si,no} @attribute caída-del-párpado {si,no} @attribute comezón {si,no} @attribute destellos-de-luz {si,no} @attribute disminución-de-la-visión {si,no} @attribute dolor-alrededor-del-ojo {si,no} @attribute dolor-en-el-ojo {si,no}

2.2 Minería de datos La minería de datos es el proceso de detectar la información procesable de los conjuntos grandes de datos. Utiliza el análisis matemático para deducir los patrones y tendencias que existen en los datos. Normalmente, estos patrones no se pueden detectar mediante la exploración tradicional de los datos porque las relaciones son demasiado complejas o porque hay demasiado datos.

3.2 Determinar un conjunto de datos objetivo

Estos patrones y tendencias se pueden recopilar y definir como un modelo de minería de datos. Los modelos de minería de datos se pueden aplicar en escenarios como los siguientes:

Dentro de la preparación de los datos, se debe tener en cuenta el uso de cada uno de los datos relacionados en el conjunto de datos, no se podrá discriminar ningún dato y el estudio se enfocará en cada uno de los elementos relacionados a cada persona de forma detallada y precisa, para no dar lugar a equivocaciones en la predicción de enfermedades visuales, se usara para esto información registrada desde los últimos dos años, la cual debe ser totalmente veraz, teniendo en cuenta que el nombre de las personas mencionadas, no será considerado como un dato importante en la elaboración del método y el algoritmo para la explotación de datos.

- Pronóstico: cálculo de las ventas y predicción de las cargas del servidor o del tiempo de inactividad del servidor. - Riesgo y probabilidad: elección de los mejores clientes para la distribución de correo directo, determinación del punto de equilibrio probable para los escenarios de riesgo, y asignación de probabilidades a diagnósticos y otros resultados. - Recomendaciones: determinación de los productos que se pueden vender juntos y generación de recomendaciones.

Como variables cuantitativas, se encuentra dentro del conjunto de datos como único valor, la edad. Sin embargo, se puede encontrar una gama de variables cualitativas más amplia, en donde se localizan datos, como el género y cada uno de los síntomas relacionados con enfermedades de tipo visual.

- Búsqueda de secuencias: análisis de los artículos que los clientes han introducido en el carrito de la compra y predicción de posibles eventos. - Agrupación: distribución de clientes o eventos en grupos de elementos relacionados, y análisis y predicción de afinidades.

3.3 Limpieza de datos y pre procesamiento

La generación de un modelo de minería de datos forma parte de un proceso mayor que incluye desde la formulación de preguntas acerca de los datos y la creación de un modelo para responderlas, hasta la implementación del modelo en un entorno de trabajo. [3]

Para la limpieza de datos, es necesario indicar que cada una de los atributos relacionados en la base de datos deben ser tenidos en cuenta en el procesamiento de los datos. Sin embargo, para la predicción, se considera de mayor importancia las los atributos que indican los síntomas de las enfermedades visuales, es decir, 200

Tlamati, Número Especial 3 CICOM 2014 no se considera que los datos de genero puedan dar un resultado veraz y seguro para el diagnóstico de una enfermedad, cualquiera que sea esta. Adicional a las especificaciones anteriormente mencionadas, se debe verificar que cada una de los atributos estén relacionados por lo menos con una enfermedad y que cada uno de los síntomas corresponda realmente a los síntomas que son propios de deficiencias o enfermedades visuales.

3.6 Elección de un algoritmo para la explotación de datos Por el tipo de datos contenidos en la base de datos y el objetivo de este proyecto, se realizó este proceso con la utilización de un algoritmo de aprendizaje probabilístico y Bayesiano. Los algoritmos de aprendizaje bayesiano pueden calcular probabilidades explícitas para cada hipótesis. También nos proporcionan un marco para estudiar otros algoritmos de aprendizaje. El razonamiento bayesiano permite dar un enfoque probabilístico de la inferencia, está basado en asumir que las incógnitas de interés siguen distribuciones probabilísticas. A través de este algoritmo se puede conseguir una solución óptima por medio de las distribuciones y los datos observados, adicional brinda la posibilidad de realizar una ponderación de la posibilidad de ocurrencia de una hipótesis de manera cuantitativa.

3.4 Reducción y protección de los datos Como se indicó en la limpieza de los datos, no se recomienda prescindir de ninguno de los datos relacionados en cada atributo, sin embargo, dado que el sistema se basa en la predicción temprana de una enfermedad visual, no se puede considerar el género de una persona como un factor que permita determinar un patrón por el cual una persona pueda padecer de una enfermedad visual. El conjunto de datos quedaría entonces conformado por el atributo que indica la edad de las personas, y los atributos que hacen referencia a los diferentes síntomas propios de las diferentes enfermedades visuales.

TEOREMA DE BAYES

Mediante la limpieza y reducción de los datos se pretende dar al algoritmo para el aprendizaje computacional, datos para la obtención de resultados exactos y precisos.

Dónde:

3.5 Elección de técnicas para la explotación de datos

-

: es la probabilidad a priori de la hipótesis h.

: es la probabilidad de observar el conjunto de entrenamiento D.

Algunas de las tareas usadas en la metodología KDD, son las siguientes:

: es la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipótesis h.

- Método de Clasificación: es el más usado de todos los métodos de KDD. Agrupa los datos de acuerdo a similitudes o clases.

: es la probabilidad a posteriori de h, cuando se ha observado el conjunto de entrenamiento D.

- Método Probabilístico: utiliza modelos de representación gráfica. Se basa en las probabilidades e independencias de los datos. Puede usarse en los sistemas de diagnóstico, planeación y sistemas de control.

SELECCIÓN DE HIPÓTESIS • Máximo a posteriori (MAP): Se denomina así a la hipótesis más probable aplicando el teorema de Bayes.

- Método Estadístico: usa la regla del descubrimiento y se basa en las relaciones de los datos. Es usado para generalizar los modelos en los datos y construir las reglas de los modelos nombrados. Por ejemplo: el proceso analítico en línea (OLAP). - Método Bayesian de KDD: Es un modelo gráfico que usa directamente los arcos para formar una gráfica acíclica. Se usa muy frecuentemente las redes de Bayesian cuando la incertidumbre se asocia con un resultado que puede expresarse en términos de una probabilidad. Este método es usado para los sistemas de diagnóstico. [4]

• En algunos casos la multiplicación por P(h) no tiene sentido ya que las hipótesis son equiprobables:

- Un modelo predictivo puede definirse como una representación matemática de un aspecto de la realidad que permite predecir comportamientos futuros en función del conocimiento presente. Por ejemplo, una vez conocidos los parámetros que influyen en el desarrollo de una determinada enfermedad se podría realizar una aproximación fiable sobre las características de las personas que puedan contraerla, de forma similar a lo desarrollado en este proyecto. [5]

• A este resultado Ec. (2) se le denomina máxima verosimilitud (maximum likelihood). [6]

3.7 Explotación de los datos El proceso de explotación de datos se realizó por medio de Weka: Waikato Environment for Knowledge Analysis

Dentro del desarrollo metodológico de este proyecto se requiere implementar un modelo predictivo asociado al método de Bayesian de KDD, como forma de análisis para lograr el objetivo planteado al desarrollar este proyecto de minería de datos y aprendizaje computacional.

Weka es una colección de algoritmos de aprendizaje automático para tareas de minería de datos. Los algoritmos bien se pueden aplicar directamente a un conjunto de datos o llamadas desde su propio código Java. Weka contiene herramientas para los datos pre-procesamiento, clasificación, regresión, clustering, reglas de asociación, y la visualización. También es muy adecuado para el desarrollo de nuevos sistemas de aprendizaje de máquina. Weka 201

Tlamati, Número Especial 3 CICOM 2014 es un software de código abierto publicado bajo la Licencia Pública General de GNU. [7]

A continuación dentro de la asociación, uno los puntos más importantes en la explotación de los datos haciendo uso de WEKA podemos encontrar las reglas más apropiadas para usar o ser tenidas en cuenta en la base de datos. Se obtuvó entonces estos datos (véase tabla 2)

Haciendo uso de este software se pueden encontrar la siguiente información:

La selección de atributos es también de gran utilidad en el proceso, esto dado que permite identificar el atributo más significativo para llegar a la clase, los datos que arroja WEKA están referenciados en la Tabla 3:

Figura 1. Análisis clase enfermedad. A partir de esta imagen, se puede encontrar, el total de los atributos usados en el conjunto de datos, como se muestra se hizo uso de 44 atributos, dentro de los cuales “enfermedad” es conocida como la clase objeto para la cual determinación del diagnóstico. Dentro de la clasificación, se implementó el método de Naive Bayes, se usó el conjunto de entrenamiento (véase figura 2).

Figura 3. Clasificación Naive Bayes.

Figura 2. Clasificación de atributos. La información obtenida dada, la cantidad de datos, el total de los atributos usados y la cantidad de enfermedades diagnosticadas, genero de igual forma gran cantidad de información para ser evaluada y analizada. Se presenta la información detallada para cada enfermedad, ejemplo de esto se puede visualizar en la siguiente imagen, con solo algunos de los atributos y para las enfermedades chalazión y orzuelos (véase figura 3)

Figura 4. Matriz de difusión.

En este espacio también es posible visualizar la matriz de confusión, para la cual es tenida en cuenta la diagonal de esta. Se muestran los 10 primeros datos (véase figura 4).

202

Tlamati, Número Especial 3 CICOM 2014 Tabla 2. Resultados obtenidos 1

lagrimeo mancha-blanca-u-opaca-en-el-ojo ojo-rojo pérdida-de-la-visión-general resequedad sensibilidad-a-la-luz torsión-del-párpado-hacia-afuera visión-borrosa visión-distorsionada visión-doble

Apriori ======= Minimum support: 0.95 (962 instances) Minimum metric : 0.9 Number of cycles performed: 1 Generated sets of large itemsets: Size of set of large itemsets L(1): 14

Fuente: Autores.

Size of set of large itemsets L(2): 60

Se indica con esto cuales son los atributos más significativos a la hora de diagnosticar un enfermedad visual, se señala al final que el atributo visión-doble es el que mayor precisión indica.

Size of set of large itemsets L(3): 112

Para finalizar, WEKA permite visualizar de manera gráfica los resultados obtenidos en el análisis del conjunto de datos, relacionando todos los atributos entre sí, como se muestra a continuación, con una pequeña muestra:

Size of set of large itemsets L(4): 95 Size of set of large itemsets L(5): 33 Size of set of large itemsets L(6): 3 Best rules found: 1. espasmos-contracciones=no 1011 ==> mancha-roja-o-rosadaen-el-ojo=no 1011 conf:(1) 2. abultamientos-en-el-párpado=no 1008 ==> mancha-roja-orosada-en-el-ojo=no 1008 conf:(1) 3. sombra-o-cortina-oscura-en-la-visión=no 1006 ==> mancharoja-o-rosada-en-el-ojo=no 1006 conf:(1) 4. abultamientos-en-el-párpado=no espasmos-contracciones=no 1006 ==> mancha-roja-o-rosada-en-el-ojo=no 1006 conf:(1) 5. espasmos-contracciones=no sombra-o-cortina-oscura-en-lavisión=no 1004 ==> mancha-roja-o-rosada-en-el-ojo=no 1004 conf:(1) 6. manchas-flotantes-en-la-visión=no 1002 ==> mancha-roja-orosada-en-el-ojo=no 1002 conf:(1) 7. abultamientos-en-el-párpado=no sombra-o-cortina-oscura-enla-visión=no 1001 ==> mancha-roja-o-rosada-en-el-ojo=no 1001 conf:(1) 8. espasmos-contracciones=no manchas-flotantes-en-lavisión=no 1000 ==> mancha-roja-o-rosada-en-el-ojo=no 1000 conf:(1) 9. abultamientos-en-el-párpado=no espasmos-contracciones=no sombra-o-cortina-oscura-en-la-visión=no 999 ==> mancha-roja-orosada-en-el-ojo=no 999 conf:(1) 10. abultamientos-en-el-párpado=no manchas-flotantes-en-lavisión=no 997 ==> mancha-roja-o-rosada-en-el-ojo=no 997 conf:(1) Fuente: Autores.

Figura 5. Relación entre atributos.

3.8 INTERPRETACIÓN El conjunto de datos, objeto de estudio contemplo un total de 1013 registros, en que se contemplaron los atributos de edad y sintomatología de cada enfermedad (Abultamientos en el párpado, Ardor en los ojos, Arenosidad del ojo, Caída del párpado, Comezón, Destellos de luz, Disminución de la visión, Dolor alrededor del ojo, Dolor en el ojo, Espasmos/contracciones, Halos alrededor de las luces , Hinchazón alrededor del ojo, Irritación, Lagañas, costras en párpados o pestañas, Lagrimeo, Mancha amarilla en el ojo, Mancha blanca u opaca en el ojo, Mancha café en el ojo, Mancha de color en el ojo, Mancha roja o rosada en el ojo, Manchas flotantes en la visión, Manchas oscuras en la visión, Movimiento limitado de los ojos, Movimiento limitado de los párpados, Ojo rojo, Ojo rosado, Pérdida de la visión central, Pérdida de la visión general, Pérdida de la visión periférica , Problemas con la visión nocturna, Pupilas dilatadas , Resequedad, Sangrado en el ojo , Secreción en el ojo, Sensación de tener algo en el ojo, Sensibilidad a la luz, Sombra o cortina oscura en la visión, Torsión del párpado hacia afuera, Visión borrosa, Visión distorsionada, Visión doble, Visión en túnel). Con estos datos es posible predecir de forma temprana una enfermedad visual, contemplando únicamente, las contenidas dentro del conjunto de datos.

Tabla 3. Datos referenciados Selected 6,7,8,9,10,11,12,15,17,25,28,32,36,38,39,40,41 : 17 destellos-de-luz disminución-de-la-visión dolor-alrededor-del-ojo dolor-en-el-ojo espasmos-contracciones halos-alrededor-de-las-luces hinchazón-alrededor-del-ojo

attributes:

Se puede predecir por ejemplo que una persona con cataratas va a mostrar dentro de su sintomatología disminución de la visión, halos alrededor de las luces, problemas con la visión nocturna, sensibilidad a la luz, visión borrosa y visión doble. Así se muestra a continuación en la Tabla 4: 203

Tlamati, Número Especial 3 CICOM 2014 la minería de datos dentro de sus aplicaciones ha contemplado el campo de la medicina que junto con otras herramientas genera un avance en esta área en donde ayuda al diagnóstico temprano, preciso y veraz, de enfermedades para su posterior tratamiento y en los casos más satisfactorios su cura; se debe tener en cuenta entonces, que este gran avance se ha logrado gracias a al arduo trabajo que se ha realizado para poder implementar el aprendizaje computacional y la minería de datos en situaciones comunes de la sociedad.

Tabla 4. Resultados obtenidos 2 Class cataratas: P(C) = 0.07088847 Attribute disminución-de-la-visión si no 0.98684211 0.01315789 Attribute halos-alrededor-de-las-luces si no 0.98684211 0.01315789 Attribute problemas-con-la-visión-nocturna si no 0.98684211 0.01315789 Attribute sensibilidad-a-la-luz si no 0.98684211 0.01315789 Attribute visión-borrosa si no 0.98684211 0.01315789 Attribute visión-doble si no 0.98684211 0.01315789

5. REFERENCIAS [1] Bermejo Sánchez, Sergi. 2003. Desarrollo de robots basados en el comportamiento. Edicions UPC. 2003. [2] Muñoz Pérez, José. 2010. Inteligencia computacional inspirada en la vida. Servicio de publicaciones de la Universidad de Málaga. 2010. [3] Microsoft Conceptos de Minería de Datos. 2013. (Nov. 2013) DOI= http://msdn.microsoft.com/eses/library/ms174949.aspx. [4] Minería de Datos. FACENA – UNNE, 2003. (Nov. 2013) DOI= http://exa.unne.edu.ar/depar/areas/informatica/SistemasOpera tivos/SDataMining.pdf. [5] Fernández Cacho, Silvia. Bases conceptuales y metodológicas de los modelos predictivos en Arqueología. Centro de Documentación y Estudios del IAPH. (Nov. 2013) DOI= http://www.iaph.es/export/sites/default/galerias/publicacione s/e-ph-cuadernos/documentos/1254997904589_mapa_ silvia.pdf [6] Prieto Izquierdo, Oscar Javier. Casillas Díaz, Raúl. Aprendizaje Bayesiano. (Nov. 2013) DOI= http://www.infor.uva.es/~isaac/doctorado/AprendizajeBayesi ano.pdf

Fuente: Autores.

4. CONCLUSIONES Finalmente, es preciso decir que cualquier enfermedad que pueda padecer un ser humano, puede ser causante de múltiples factores negativos en la integridad de este, por lo cual será siempre necesario procurar el bienestar y la salud del ser humano, es por esto que el diagnosticar de forma temprana una enfermedad puede ser el rescate para la no perdición de una persona, es por ello que

[7] Weka 3: Data Mining Software in Java. Machine Learning Group at the University of Waikato. (Nov. 2013) DOI= http://www.cs.waikato.ac.nz/ml/weka/

204

Tlamati, Número Especial 3 CICOM 2014

Uso de WebSockets en la comunicación cliente-servidor de aplicaciones web, para generar conexiones de baja latencia Maily A. Quintero E. Universidad Distrital Francisco Jose de Caldas Facultad tecnológica

[emailprotected]

RESUMEN

ABSTRACT

El esquema de desarrollo de aplicaciones web orientado a la comunicación, en esta época está creciendo de manera exponencial, lo cual hace que se incremente la demanda de peticiones por parte del cliente con respecto al servidor; este aumento con lleva a que los tiempos de respuesta sean mayores. Gracias a la implementación de tecnologías de comunicación entre el navegador y el servidor web como, comet y AJAX (Asynchronous JavaScript And XML) [1], se ha podido disminuir los tiempos de respuesta, sin embargo no ha sido suficiente, ya que, se sigue utilizando el protocolo de comunicación HTTP (Hypertext Transfer Protocol) [2].

The scheme of development of web applications oriented to communication at this time is growing exponentially, which makes the demand for requests from the client to rise from the server; this leads to increase in response times are greater. Thanks to the implementation of technologies of communication between the browser and the web server such as AJAX (Asynchronous JavaScript And XML), it has been possible to decrease the answer time, however, it hasn't been enough, because it continues using the communication protocol HTTP (Hypertext Transfer Protocol). With the evolution of the technology, API appears (Application Programming Interface) WebSockets the standards of HTML5. This technology makes possible to open a session of interactive communication between the user's navigator and a server. WebSockets determines a connection with a socket unique fullduplex, on which it's possible interaction of messages between client and server. With this API, it's possible to send and receive messages to a server, making the response time is less.

Con la evolución de la tecnología AJAX, llega la API(Interfaz de programación de aplicaciones) [3] WebSockets en los estándares del lenguaje de marcado HTML [4] en su quinta versión; esta tecnología hace posible abrir una sesión de comunicación interactiva entre el navegador del usuario y un servidor. WebSockets, determina una conexión con un socket único bidireccional, sobre el cual es posible una interacción de mensajes entre el cliente y el servidor. Con esta API, es factible el envío y la recepción de mensajes a un servidor, haciendo que el tiempo de respuesta sea menor.

Key words Latency, web server, browser, communication bidirectional, asynchronous

Palabras claves 1. INTRODUCCIÓN

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

Uno de los fundamentos de internet, consiste en el acceso y el intercambio de información con la celeridad que exige la sociedad de la modernidad. Bajo este principio se desarrolló el paradigma solicitud/respuesta del protocolo de comunicación HTTP [5]. Cuando un operador ingresa a la web, la página entra en operación mostrando la información requerida, esta no sufre ningún cambio, la variación que se puede generar se presenta cuando el usuario activa el sistema, ya sea a través del teclado, el mouse, etc.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

A mediados del año 2005, con la unificación de varias tecnologías para el desarrollo de aplicaciones web, tales como, HTML (Lenguaje de marcas de hipertexto), CSS (Hojas de Estilo en Cascada) [6], JavaScript, XML ('Lenguaje de marcas extensible) [7], DHTML (HTML Dinámico) [8] se creó AJAX,

Latencia, servidor web, navegador, comunicación bidireccional, asincrónica. 205

Tlamati, Número Especial 3 CICOM 2014 una tecnología que permite interacciones dinámicas y eficientes entre el navegador y el servidor web.

XML: Es un lenguaje de descripción de datos, para el intercambio de datos entre aplicaciones.

A pesar del fortalecimiento de AJAX, y el respaldo del protocolo HTTP a este, el acceso directo a la página está determinado por la interacción constante del usuario con el servidor.

Asíncrono: Cuando un emisor emite un mensaje y continúa con su trabajo, y no sabe cuándo le llegará el mensaje al receptor. AJAX es una técnica que permite, mediante la implementación del lenguaje de programación JavaScript, un servidor y un navegador intercambien información, posiblemente en XML, de forma asíncrona. [11]

Posterior a AJAX, se crearon otras tecnologías que, permitían al servidor enviar datos al cliente en el mismo momento que detectaba que había nuevos datos disponibles. Esto se conoce como Comet, encargados de retrasar la finalización de una respuesta del protocolo de comunicación HTTP para entregar mensajes al cliente. Esta intentaba ofrecer aplicaciones web en tiempo real en cuanto a la comunicación con el servidor web. Comet se implementa en el navegador con el lenguaje de interpretado JavaScript y utiliza estrategias de conexión, tales como Polling, Long-polling y streaming.

3.2. Técnica Comet La palabra comet se utiliza para describir un modelo de aplicación web, en donde la comunicación navegador web y servidor web se realiza mediante el protocolo de comunicación HTTP, donde el servidor mantiene siempre abierto una comunicación con el navegador, y las peticiones siempre se originaran en el servidor [12], este modelo es el intento por tener información actualiza en tiempo real.

2. PLANTEAMIENTO DEL PROBLEMA

Las técnicas utilizadas con comet son polling (sondeo), Longpolling (sondeo largo) y streaming (trasmisión).

Al examinar las tecnologías como AJAX y Comet, se observó inconvenientes cuando se requería desarrollar aplicaciones web que su funcionalidad estuviera enfocada a las comunicaciones en tiempo real, estas aplicaciones son difíciles de desarrollar y de mantener; especialmente como con la tecnología AJAX, ya que no es compatible con todos los navegadores web, especialmente en dispositivos móviles; y no es un estándar del lenguaje de marcado HTML.

En la utilización de polling, el navegador envía peticiones HTTP al servidor en intervalos regulares de tiempo, e inmediatamente recibe una respuesta. Esta técnica fue el primer intento para que el navegador entregara información en tiempo real. Esta técnica es viable si se conoce el intervalo exacto de la entrega de mensajes, ya que se sincroniza la solicitud del navegador cuando la información está disponible en el servidor.

Las dos tecnologías mencionadas anteriormente, comparten un problema en común, cuando se requiere simular una experiencia en tiempo real en aplicaciones web, generan latencia adicional, tráfico de red innecesario y un lastre para el rendimiento de la CPU (Unidad central de procesamiento) [9]. Esto ocurre por el exceso de gran cantidad de datos de cabecera del protocolo HTTP, innecesarios y adicionales, lo que no las hace aptas para aplicaciones de baja latencia. El protocolo de comunicaciones HTTP no fue diseñado para desarrollar aplicaciones en tiempo real; ya que simula la comunicación full-duplex, este desarrollo muestra complejidad asociada con la construcción, trabajada con la técnica comet.

Sin embargo, los datos en tiempo real a menudo no son tan predecibles, haciendo peticiones innecesarias inevitable y, como resultado, muchas conexiones se abren y cierran sin necesidad, La mecánica de comunicación asincrónica de la técnica polling se muestra en la figura 1.

El problema que resuelve Websockets, es comunicar los procesos del servidor con los procesos del cliente (navegador) manteniendo una comunicación bidireccional en una plataforma web para aplicaciones de tiempo real, todo ello con una mejora en la latencia que actualmente soportan esta clase de comunicaciones, mejorando las técnicas actuales. [10]

3. MARCO TEORICO

Figura 1. Introducción a WebSockets. [10] El cliente (navegador) envía una petición, el servidor la recibe, procesa y envía la respuesta que el navegador muestra en pantalla. Este esquema de trabajo hace que el navegador siempre tenga que pedir, para recibir la información, de ahí que esta técnica se denomina Polling. El método de que el navegador esté constantemente preguntando al servidor si tiene información para enviarle, hace que el navegador consuma CPU y memoria.

3.1. Tecnología AJAX (Asynchronous JavaScript And XML) AJAX es el acrónimo de Asynchronous Javascript and XML, es decir: Javascript y XML Asincrono. JavaScript: Es un lenguaje de programación que es interpretado por los navegadores web.

206

Tlamati, Número Especial 3 CICOM 2014 Con Long-Polling, el navegador envía una solicitud al servidor y el servidor en un periodo de tiempo determinado, realiza una notificación de apertura al navegador. Si una notificación es recibida dentro de ese lapso de tiempo, una respuesta que contiene el mensaje se envía al navegador. Si la notificación no se recibe dentro del período de tiempo establecido, el servidor envía una respuesta para terminar la solicitud de apertura.

normalizada por una comunidad internacional que trabajan para poder desarrollar estándares para el desarrollo de aplicación web y así ayudar a un mejor desarrollo del Internet a nivel mundial, llamado W3C (World Wide Web Consortium) [16]. Las aplicaciones HTML5 basadas WebSockets dan menos carga en los servidores, permitiendo a los equipos existentes apoyar más conexiones de manera simultánea. La especificación del protocolo WebSocket define dos nuevos esquemas de identificación de recursos en internet, llamado URI (Uniform Resource Identifier) [17], ws: y wss: para conexiones cifradas y no cifradas [18].

Esta técnica no proporciona el mejor rendimiento cuando se tiene un gran volumen de mensajes con respecto al Polling tradicional. En la técnica streaming, el navegador envía una solicitud completa al servidor, este envía y mantiene una respuesta abierta que se actualiza continuamente y se mantiene abierta de forma indefinida (o por un período determinado de tiempo). La respuesta se actualiza cada vez que un mensaje está listo para ser enviado, manteniendo así la conexión abierta para entregar mensajes futuros.[10] CAMBIAR

3.4. Latencia en un servidor web Se refiere a cualquier tipo de periodos de inactividad y retrasos producidos durante la transmisión de información y el procesamiento de datos recibidos o preparados para ser enviados.

3.3. Concepto De Websockets

Un ejemplo de latencia se da en el momento en que una computadora solicita información desde internet y el punto en el cual lo recibe, o viceversa [19], un factor que influye en la latencia es el tamaño de información trasmitida.

La API WebSockets ofrece soporte para comunicaciones bidireccionales entre navegadores y servidores. La comunicación es realizada a través de conexiones sobre el protocolo de control de trasmisión TCP [13], sin enviar cabeceras del protocolo de comunicación HTTP, reduciendo de este modo la cantidad de datos transmitidos en cada petición.

3.5. Comparación De WebSockets Sobre La Técnica De Polling

Además, la conexión es persistente, permitiendo a los servidores mantener a los navegadores permanentemente informados. Esto significa que no deberemos encargarnos de llamar al servidor a cada momento para obtener datos actualizados; en su lugar, el servidor mismo de forma automática nos enviará información acerca de la situación actual [14], ver el esquema de funcionamiento de Websockets (figura 2).

WebSockets no hace la tecnología AJAX obsoleto pero sí reemplaza comet (polling) como la solución de elección para la funcionalidad en tiempo real. WebSockets ahora es el estándar para la funcionalidad en tiempo real, ya que ofrecen una baja latencia de comunicación bidireccional a través de una única conexión. [20] En la figura 3 se observa las ventajas de la tecnología Websockets sobre la técnica de polling.

Figura 2. Introducción a WebSockets image2. [10]

Se observa en la figura 2, el intercambio de información entre el cliente y el servidor cuando cualquiera de las dos partes así lo requiera, sin necesidad de que el cliente esté sondeando al servidor, y con la ventaja extra de que las dos partes pueden enviar información al mismo tiempo por el mismo canal ya que al ser una conexión bidireccional los mensajes no colisionaran. Figura 3. Introducción a WebSockets image3. [10]. WebSockets es un estándar del lenguaje de marcado HTML en su quinta versión, usado para estructurar y presentar el contenido en aplicaciones web [15], la API de WebSockets está siendo 207

Tlamati, Número Especial 3 CICOM 2014 Se observa en la figura anterior, la reducción de tráfico innecesario en la red utilizando la tecnología WebSockets, ya que el servidor solo envía información al navegador, cada vez que exista; a diferencia de la técnica polling, que envían datos al servidor preguntando si hay información para que este envíe al navegador[10].

4. ANALISIS DE PRUEBAS Y RESULTADOS Para explicar cómo se implementa la tecnología WebSockets en una aplicación web, se desarrolló un ejemplo de comunicación entre usuarios, mediante un chat, la aplicación se realiza mediante el lenguaje de programación PHP (PHP Hypertext Pre-processor) [21] en el servidor, y en el navegador con el lenguaje de programación de interpretado JavaScript. Se utiliza un entorno de desarrollo web para Windows llamado WAMP Server (Windows Apache MySQL PHP) [22], el cual permite servir páginas del lenguaje de marcas HTML a internet, y gestionar datos; el cual se puede descargar de la página oficial [23]. Para la utilización de API WebSockets, se tiene en cuenta si el navegador soporta esta API, (figura 4) los soportes este con respecto a los principales navegadores.

Tabla 1. Compatibilidad WebSockets [24].

de

los

exploradores

Explorador

Compatibilidad con WebSockets

Internet Explorer

Internet Explorer 10 será compatible con Websockets. Las aplicaciones Metro escritas con JavaScript y HTML5 también serán compatibles con WebSockets

Firefox

El explorador es compatible con WebSockets a partir de la versión 6, la cual apareció a mediados del 2011. La versión 4 ofreció una compatibilidad temprana, pero esta desapareció en la versión 5.

Chrome

Chrome es compatible con WebSockets a partir de la versión 14, la cual apareció en septiembre del 2011.

Opera

La compatibilidad con WebSockets desapareció en la versión 11.

Safari

Compatible con una versión anterior del protocolo WebSocket.

Una vez descargado el navegador web con soporte para WebSockets, se inicia creando los archivos necesarios en el servidor; se crea un archivo llamada Socket.Php, en donde están encapsulados los métodos necesarios, para crear un servicio de WebSockets, (figura 5), se muestra como crear un socket.

con

Figura 5. Código fuente del método Create, para la creación de un socket con el lenguaje de programación PHP.

Cuando se cree el socket, se le tiene que asignar una ruta, desde la cual pueda ser accedido (figura 6). 208

Tlamati, Número Especial 3 CICOM 2014

Figura 6. Código fuente del método Bind, para asignarle una ruta de acceso al socket creado con anterioridad; con el lenguaje de programación PHP.

Cuando se crea un socket y se le asigna una ruta; este se tiene que habilitar para que el servidor pueda escuchar por un canal de comunicación, las conexión de los usuarios, (figura 7).

Figura 7. Código fuente del método Listen, utilizado para colocar el socket creado en modo escucha con el lenguaje de programación PHP.

Cada usuario que se conecta con el servidor, obligatoriamente tiene que enviar un WebSockets handshake, con el fin de que haya una conexión correcta, es llamado un estrechón de manos entre el servidor y el navegador web; (figura 8)

209

Tlamati, Número Especial 3 CICOM 2014

Figura 8. Código fuente del método ValidationClient, utilizado para establecer una comunicación entre el servidor y el navegador, con el lenguaje de programación PHP.

Cuando se envían mensaje entre el navegador y el servidor; es importante que los mensajes estén encriptados, (figura 9).

210

Tlamati, Número Especial 3 CICOM 2014

Figura 9. Código fuente de los métodos EncriptMessage y DecriptMessage, utilizado para encriptar y desencriptar los mensajes que se envían entre el navegador y el servidor, con el lenguaje de programación PHP.

Por parte del navegador, se crea un archivo con el nombre de cliente.php; en el cual se utilizan unos métodos para la comunicación con el servidor, estas funciones son escritas en el lenguaje de interpretado Javascript, (figura 10).

211

Tlamati, Número Especial 3 CICOM 2014

Figura 10. Código fuente de las funciones utilizadas desde el navegador, para la comunicación con el servidor, realizado en el lenguaje de programación de interpretado JavaScript.

En la anterior figura, en la dirección URL, ya no se utiliza el protocolo de comunicación http, si no el protocolo ws (WebSockets).

Para la ejecución del aplicación que se realizó, se invoca el archivo cliente.php, desde cualquier navegador que soporte WebSocktes; se digita en el campo de dirección url http://localhost/client.php, (figura 11).

Figura 11. Interfaz de la aplicación funcionando con el navegador Opera.

212

Tlamati, Número Especial 3 CICOM 2014 [10] Sosa, Tiago, and DeFilippis, Dario. 2010a. Introduccion a WebSocket. Consultado en Junio 19, 2014. DOI= https://sites.google.com/site/gabineteutn/ investigacionydesarrollo/html5/tutoriales/introduccion-a websocket.

5. CONCLUSIONES WebSockets no es sólo otra mejora gradual para las comunicaciones utilizando el protocolo HTTP convencional; representa un avance colosal, especialmente para aplicaciones en tiempo real orientadas a eventos.

[11] Qué es AJAX. 2012. Digital Learning. Consultado en Junio 18, 2014. DOI= http://www.digitallearning.es/ blog/quees-ajax/.

Web Sockets ofrece una reducción de tráfico innecesario en la red y la latencia, comparándola con las soluciones convencionales.

[12] Comet. 2014. Wikipedia. Consultado en Junio 19, 2014. DOI= http://es.wikipedia.org/wiki/Comet.

WebSockets es una solución definitiva al problema de la comunicación asincrónica entre servidores y páginas web.

[13] Protocolo TCP. 2014. Kioskea. Consultado en Junio 20, 2014. DOI= http://es.kioskea.net/contents/281 protocolotcp.

WebSockets puede usarse en aplicaciones que no están relacionadas con la web, permitiendo solucionar el problema de acceder a una conexión por el sistema de comunicación entre ordenadores [25].

[14] Gauchat, J.D. 2012.El gran libro de HTML5, CSS3 y Javascript. Ed. Marcombo ediciones técnicas, Barcelona, 297-303 DOI= https://sistemasquimica.wikispaces.com/file/view/El+gran+ libro+de+HTML5,+CSS3+y+Javascrip++Juan+Diego+Gauchat.pdf.

6. REFERENCIAS

[15] Entendiendo HTML5: guía para principiantes. 2013. Bitelia. Consultado en Junio 21, 2014. DOI= http://bitelia.com/2013/05/entendiendo-html5-guia-paraprincipiantes.

[1] Capítulo 1. Introducción a AJAX. (s.f). Librosweb. Consultado en Junio 9, 2014. DOI=http://librosweb.es/ ajax/capitulo_1.html

[16] Sobre el W3C. (s.f). W3C España. Consultado en Junio 21; 2014. DOI= http://www.w3c.es/Consorcio/.

[2] Qué significa http - Definición de http. (s.f). Consultado en Junio 15, 2014 DOI= http://www.masadelante.com/faqs/que-significa-http

[17] Castro L. (s.f). ¿Qué es URI?. Consultado en Junio 21, 2014. DOI= http://aprenderinternet.about.com/od/ ConceptosBasica/Que-Es-Uri.htm.

[3] Qué es un API. (s.f). rastersoft. Consultado en Junio 15, 2014 DOI= http://www.rastersoft.com/OS2/CURSO /APIEXPL.HTM

[18] The WebSocket API. 2012. W3C. Consultado en Junio 22, 2014. DOI= http://www.w3.org/TR/websockets/.

[4] Álvarez, M. A. 2001. Qué es HTML. Consultado en Junio 14, 2014 DOI= http://www .desarrolloweb.com/articulos/que-es html.html

[19] Gutierrez P. (s.f). Como probar tu latencia. Consultado en Junio 23, 2014. DOI= http://www. ehowenespanol.com/probar-latenciacomo_44906/.

[5] Ubl, Malte, and Kitamaru Eiji. 2010. Introduccion a los WebSockets: incorporación de sockets a la web. Consultado en Junio 15, 2014 DOI= http://www.html5rocks.com/es/tutorials/websockets/basics/ #toc-examples.

[20] What are WebSockets?. (s.f). Pusher. Consultado en Junio 23, 2014. DOI= http://pusher.com/websockets. [21] Qué es PHP?. (s.f). php. Consultado en Junio 23, 2014. DOI= http://www.php.net/manual/es/intro-whatis. php. [22] Qué es Wamp Server?. (s.f). ingenieros. Consultado en Junio 24, 2014. DOI= http://ingenieross. wordpress.com/2013/11/19/que-es-wamp-server/.

[6] Lección 1: ¿Qué es CSS?. (s.f). HTML.net. Consultado en Junio 15, 2014. DOI= http://es.html.net/tutorials/css /lesson1.php.

[23] Bourdon, R (s.f). Wampserver. Consultado en Junio 28, 2014. DOI= http://www.wampserver.com/en/

[7] Castro, Luis. (s.f). ¿Qué es XML?. Consultado en Junio 16, 2014. DOI= http://aprenderinternet.about. com/od/Glosario/g/QueEs-Xml.htm.

[24] Esposito, D. (s.f). Entienda el poder de WebSockets. Consultado en Junio 30, 2014. DOI= http://msdn.microsoft. com/es-es/magazine/hh975342.aspx

[8] Alvarez, Miguel Angel. 2001. Que es DHTML o HTML Dinámico. Consultado en Junio 17, 2014. DOI= http://www.desarrolloweb.com/articulos/391.php.

[25] Rueda, M. B. 1996. SOCKETS: COMUNICACIÓN ENTRE PROCESOS DISTRIBUIDOS. Consultado en Julio 4, 2014. DOI= http://es.tldp.org/Universitarios/seminario-2-sockets. html

[9] Qué es una CPU - Definición de CPU. (s.f). masadelante. Consultado en Junio 16, 2014. DOI= http://www.masadelante.com/faqs/cpu.

213

Tlamati, Número Especial 3 CICOM 2014

Uso de Node.js en el desarrollo de aplicaciones web altamente escalables Michael Valencia R. Universidad Distrital Francisco Jose de Caldas Facultad tecnológica

[emailprotected]

If it has an increase in the amount of accesses a web server, in the same instant, it couldn't serve them. Causing server saturation and a probable collapse of the system; to show this node.js as a programming language, implements a paradigm of programming oriented by events, which allows an efficient and fast service. This is perfect for applications which scalability is the main element. Therefore, give to the system some properties that allow it to adapt at the events, like the growing of the job, without lose the quality of the service offered.

RESUMEN La constante aparición de aplicaciones web para organizaciones de gran prestigio que manejen gran cantidad de información y de usuarios, requiere que estas sean lo suficientemente robustas, de tal manera que sean capaces de suplir las necesidades de los usuarios, además de preparar el sistema y así, ampliar la capacidad de concentración de información y de consulta. Si se presenta un aumento en la cantidad de accesos al servidor web, en un mismo instante, este no podría atenderlos, ocasionando entonces, una saturación del servidor y un probable colapso del sistema; para obviar esta situación node.js como lenguaje de programación, implementa un paradigma de programación orientado por eventos, lo cual permite un servicio ligero y eficiente, ideal para aplicaciones en donde la escalabilidad sea el factor fundamental. Es decir, otorgarle al sistema ciertas propiedades que le permitan adaptarse a eventos, como el crecimiento de trabajo, sin que se pierda la calidad del servicio ofertado.

Key words Web server, browser, scalability, JavaScript, v8 engine.

1. INTRODUCCIÓN Las organizaciones que tienen en su poder un sitio web, enfocado al manejo de un gran volumen de usuarios y de información, no miden el alto costo que representa para el servidor web, registrar mucha información y a su vez manejar una alta cantidad de accesos, de tal manera que este no colapse. Estas organizaciones, saben, de antemano, que la cantidad de usuarios y de información se da en forma exponencial, lo cual genera problemas al servidor web, ya que, se produce un efecto cuello de botella, por el gran cumulo de concurrencia que tiene acceso.

Palabras claves Servidor web, navegador, escalabilidad, JavaScript, motor V8.

ABSTRACT The frequent appearance of web applications for organizations with great prestige that uses the great amount of information and users, need that these be enough strong and can be able to supply the needs of the users. Also, prepare the system and expand the capacity of concentration of information and consultation.

Hacer que un servidor sea mantenible, requiere la implementación de nuevos entornos de desarrollo, es decir que, el principio de escalabilidad sea evidente, en la medida en que se logre satisfacer los requerimientos de cualquier usuario, de manera ágil y efectiva, como se explicara posteriormente.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

2. PLANTEAMIENTO DEL PROBLEMA Cuando en un servidor web se incrementa de forma exponencial la cantidad de datos y de usuarios, este debe estar en la capacidad de adaptarse a este crecimiento, los problemas que no permiten que esto suceda son: el uso de memoria de sesión, y el uso de base de datos (figura 1).

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

214

Tlamati, Número Especial 3 CICOM 2014

3. INCORPORACIÓN DE NODE.JS EN LOS SERVIDORES WEB 3.1 JavaScript como lenguaje de programación del lado del servidor JavaScript es un lenguaje de interpretado, multiplataforma, orientado a eventos con manejo de objetos, cuyo código fuente se incluye directamente en el documento del lenguaje de marcado HTML[4]. Las principales características de JavaScript son: Figura 1. Comunicación entre el navegador y el servidor.[1]

2.1 Uso de memoria de sesión

La memoria de sesión se guarda transitoriamente en los servidores web. Son datos propios de cada usuario conectado a internet que se mantienen durante la navegación.

• •

La memoria es el recurso más vital de un servidor web y más escaso. Normalmente cada memoria de sesión pesa 40 Kb, este número es bajo, y sin gran cantidad de usuarios, no habrá ningún problema; sin embargo, cuando se cuenta con una cantidad de usuarios conectados entre 30000 y 40000, el servidor empezara a presentar problemas, como demora en las respuestas al cliente (navegador), saturación y en el peor de los casos colapso total de este.[1]

Permite definir objetos dentro de nuestra página web y sobre ese objeto definimos diferentes eventos que producirán una salida. Es un lenguaje dinámico, ya que responde solo a eventos producidos por el mismo usuario, y JavaScript reacciona a ellos en tiempo real. Responde a eventos locales dentro de una aplicación web. Realización de cálculos en tiempo real, y validación de formularios dentro de la aplicación web.[5]

3.2 Motor V8 de Google V8 es el motor de JavaScript de código abierto, que Google usa en su navegador Google Chrome; este motor es ultra rápido, ya que está escrito en un lenguaje de programación de bajo nivel, y puede ser incorporarlo a cualquier aplicación. Cambiando el propósito por el que se creó el motor V8 y usándolo en el lado del servidor, se creó Node.js, se puede apreciar en la figura 2 el funcionamiento de este motor.[5]

2.2 Uso de base de datos Las bases de datos relaciones que se usan normalmente en entornos corporativos (Oracle, PostgreSQL), no están pensadas para trabajar con gran cantidad de usuarios (miles o cientos de miles); se necesitaran muchos recursos de la máquina para dar servicio a un solo usuario, colapsando el servidor.[1]

2.3 Funcionamiento actual de los servidores web Los lenguajes de programación por parte del servidor web, como Java y PHP (PHP Hypertext Pre-processor)[2], cuando se realiza una conexión con el servidor, este genera un nuevo hilo que está acompañado de 2 MB de memoria; cuando se cuenta con un sistema que tiene 8 GB de RAM, esto da un número máximo de conexiones concurrentes de 4.000 usuarios. Con el crecimiento exponencial de usuarios, se deberá agregar más y más servidores al sistema; esto suma en cuanto a los costos del negocio, a los costos de tráfico y los costos laborales.[3]

Figura 2. Funcionamiento del motor V8 del navegador Google Chrome.[3]

3.3 Programación dirigida por eventos La programación dirigida por eventos es un paradigma de programación, en el que tanto la estructura como la ejecución de los programas van determinados por los sucesos que ocurran el sistema, definidos por el usuario o que ellos mismos provoquen. 215

Tlamati, Número Especial 3 CICOM 2014 La programación dirigida por eventos es la base de lo que se conoce como interfaz de usuario.

abriendo conexiones y haciendo peticiones a la base de datos, esta dejara de atender peticiones y acaba colapsando [8]. (figura 3)

Este tipo de programación cuenta con ciertas características, que lo hace apta para la implementación de un lenguaje de interpretado como JavaScript en el servidor web. • •

La aplicación quedará bloqueado hasta que se produzca algún evento. Cuando alguno de los eventos esperados por la aplicación tenga lugar, la aplicación pasará a ejecutar el código del correspondiente evento. La programación orientada a eventos permite interactuar con el usuario en cualquier momento de la ejecución.[6]

3.4 Servidores web altamente escalables con Node.js

El lenguaje de programación node.js, es la manera más fácil para construir aplicaciones web altamente escalables.

Figura 3. Tecnologías y técnicas, donde node.js serviría para la comunicación con el servidor. [8]

Para que un servidor web sea realmente escalable tiene que cumplir los siguientes requisitos: •

Adatarse al incremento de número de usuarios.

Adaptarse a un incremento en el tamaño de los datos que maneja.

Tiene que ser mantenible

A continuación se presentan una lista de aplicaciones donde node.js, encaja perfectamente.

3.5.1

Fila de Twitter

Una compañía como Twitter que recibe millones de tweets al día, y los escribe en una base de datos, esta presenta problemas cuando en una fracción de segundo llegan miles de tweets y la base de datos no puede seguir el ritmo del número de escrituras.

Node.js es un entorno del lenguaje de programación de interpretado JavaScript, usa el motor V8 de Google del lado de servidor, que utiliza un modelo asíncrono y dirigido por eventos para la comunicación con este, está diseñado para situaciones en la que se espere una gran cantidad de tráfico y un procesamiento sencillo, para dar una respuesta lo antes posible.[7]

Node.js se convierte en una herramienta clave para solucionar este problema ya que puede manejar decenas de miles de tweets entrantes. Luego puede escribirlos rápidamente y fácilmente en un mecanismo de cola, desde donde otro proceso separado puede escribirlos en la base de datos. El rol de Node.js en esto es reunir rápidamente los tweets y pasar esta información hacia otro proceso responsable de escribirlo.

Node.js soporta el protocolo de comunicación HTTP, el protocolo de control de comunicación TCP y permite el manejo de sistemas de nombre de dominio DNS.[8]

En un servidor web PHP, que tenga como entrada un millón de tweets por segundo, se necesitara una cantidad de 500 servidores para soportar esta cantidad; con el uso node.js, que permite capturar tantos tweets como se le puedan arrojar, tendremos la necesidad de trabajar con tan solo 20 servidores, ya que cada uno de estos puede manejar una cantidad de 50.000 tweets.

3.5 Cuando usar Node.js Node.js, es una solución para aplicaciones web que necesiten una conexión persistente con el navegador del cliente. Mediante una técnica llamada Comet, se puede hacer una aplicación web que envíe datos al usuario en tiempo real; es decir, que el navegador mantenga la conexión siempre abierta y reciba continuamente nuevos datos cuando los haya. Para servidores web y aplicaciones web clásicas que no estén preparadas para mantener muchas conexiones, la forma más sencilla es solicitar desde el navegador cada X segundos nueva información, esta técnica es conocida como polling (sondeo). Si se tienen muchos usuarios a la vez

3.5.2

Estadísticas de videojuegos

Un juego como Call of Duty online, que maneja estadísticas de juego, es difícil mantenerla actualizada, ya que solo se logra mediante el rastreo de toneladas de información a millones de

216

Tlamati, Número Especial 3 CICOM 2014 usuarios que juegan en cualquier momento, para poder producir tal nivel de estadísticas.

mantener una cantidad máxima de cliente entre 20.000 y 25.000 a la vez sin haber retardo en las respuestas [8].

Node.js es una buena solución para este escenario, porque puede capturar los datos que están generando los usuarios, hacer un consolidado con ellos y luego ponerlos en una fila para escribirlos en una base de datos, esto nos brinda la posibilidad de solo utilizar un servidor web para rastrear casi todas las estadísticas de un juego, a diferencia de un servidor web Apache que se necesitarían más de 5[9].

Para crear una aplicación Node.js en Windows, descargar e instalar el kit desde la página web oficial http://nodejs.org/, la descargar se realiza directamente en esta página.

4. IMPLEMENTACION Y DISEÑO DE UNA APLICACIÓN WEB CON NODE.JS Para explicar cómo se implementa Node.js en una aplicación web, se desarrolló un chat; Node.js es un kit de desarrollo, que se descarga de la página oficial para trabajar sobre Windows.

3.6 Comparación entre un servidor Apache y un servidor Node.js

Se inicia creando los archivos necesarios en el servidor; se crea un archivo llamado chat_servidor.js, el cual está en la tarea de recibir la información que le envía el navegador. (figura 5).

El servidor apache crea un nuevo hilo por cada conexión clienteservidor, esto funciona bien si se cuenta con pocas conexiones; cada hilo que se crea en el servidor es muy costoso para este en términos de memoria, y uso de la unidad principal de procesamiento (CPU)[10]. Como se muestra en la figura 3, cuando el servidor apache pasa de 400 conexiones simultáneas a 800, el número de segundos para atender las peticiones crece considerablemente; este servidor funciona bien, sin embargo no es el mejor para lograr la máxima concurrencia (tener el número máximo de conexiones abiertas posibles).

Figura 4. Diferencia de la concurrencia que se da con un servidor Node,js y con un servidor apache. [8]

Figura 5. Código fuente del archivo chat_servidor.js.

Node.js tiene la capacidad de mantener muchas conexiones abiertas y esperando conexión entrantes.

Por parte del cliente se crean archivos tanto para la interfaz, la presentación y la comunicación con el servidor; el archivo de interfaz que se crea es llamado chat.jade, el cual es el encargado de mostrar la estructura de la página en el navegador. (figura 6a).

En el servidor apache la cantidad máxima de clientes por defecto es de 256, a diferencia de un servidor node.js que solo trabaja sobre un solo hilo, lo que permite que node.js pueda mantener tantas conexión como número máximo de archivos descriptores soportados por el sistema; en un sistema operativo como Linux, un servidor web node.js con una actividad normal, puede

217

Tlamati, Número Especial 3 CICOM 2014

Figura 6a. Código fuente del archivo chat.jade. El archivo de presentación que se crea es llamado style.css, el cual es el encargado de ubicar y estilizar la estructura que se creó con anterioridad, con el fin de que la aplicación web sea amena para su vista. (figura 6b).

Figura 7. Código fuente del archivo chat_cliente.js. Figura 6b. Código fuente del archivo style.css. Para la ejecución del aplicación que se realizó, se invoca el archivo chat, desde cualquier navegador; se digita en el campo de dirección url http://localhost:3000/chat, (figura 8).

Para la comunicación del navegador con el servidor web se crea un archivo llamado chat_cliente.js; en el cual se encuentra los métodos necesarios para cumplir esta tarea. (figura 7).

218

Tlamati, Número Especial 3 CICOM 2014

Figura 8. Interfaz de la aplicación funcionando.

http://www.securityartwork.es/2013/06/17/nuevastecnologias-viejas-vulnerabilidades-node-js-i/.

5. CONCLUSIONES

[4] Alvarez, M,A. 2001. Qué es HTML. Consultado en Junio 14, 2014. DOI= http://www .desarrolloweb.com/articulos/que-es html.html.

El servidor Node.js, está diseñado para reemplazar en su función a muchos de los servidores actúeles, a partir de la incorporación de algunos módulos, convirtiéndolo en una herramienta más ágil y potente, pues está diseñado en un lenguaje de interpretado como JavaScript, lo cual lo convierte en un servidor extensible.

[5] Blanco, E. (s.f). Conceptos de JavaScript. Consultado en Junio de 25, 2014. DOI= http://eblancocds.wordpress.com/javascript/conceptosjavascript/ .

De esta manera Node.js, cumple con las expectativas de generar servidores altamente escalables; para ello utiliza un motor JavaScript, extremadamente rápido de Google, el motor V8, con un diseño orientado por eventos, lo cual permite mantener el código al mínimo y a su vez, facilitar la lectura.

[6] Rodriguez, A.R and Lopez, J.A. 2012. Programacion dirigida por eventos. Consultado en Junio 27, 2014. DOI= http://www.buenastareas.com/ensayos/ProgramacionDirigida-Por-Eventos/4618913.html.

La utilización de JavaScript, en un servidor web con node.js, lo convierte en una solución altamente escalable.

[7] Fernández. A. 2010 . Mitos sobre escalabilidad de apliciones web. Consultado en Junio 29, 2014 . DOI= http://codigocomestible.com/2010/03/28/mitos-escalabilidadaplicaciones-web.

La comunidad que trabaja con Node.js, se está expandiendo rápidamente, lo cual implica su participación activa en el mejoramiento del servidor, y partir de ahí, la creación de nuevos módulos para Node.js.

[8] Muñoz, R.2011. Introduccion a Node.js. Consultado en Junio 29, 2014. DOI= http://www.rmunoz.net/introduccion-a-nodejs.html. [9] Abernethy, M. 2011. ¿Simplemente que es Node.js?. Consultado en julio 1, 2014. DOI= http://www.ibm.com/developerworks/ssa/opensource/library/ os-nodejs/.

6. REFERENCIAS [1] Hevia, A. 2011. Una arquitectura altamente escalable. Consultado en Junio 23, 2014. DOI= http://pensandoensoa.com/2011/11/09/una-arquitecturaaltamente-escalable/

[10] ¿Qué es una CPU? - Definición de CPU. (s.f). masadelante. Consultado en Junio 16, 2014. DOI= http://www.masadelante.com/faqs/cpu.

[2] ¿Qué es PHP?. (s.f). php. Consultado en Junio 23, 2014. DOI= http://www.php.net/manual/es/intro-whatis. php.

[11] Node.js. (s.f). Node.js. Consultado en Julio 2, 201ª. DOI= http://nodejs.org/.

[3] Mir, G. 2013. Nuevas tecnologías / viejas vulnerabilidades – Node.js (I). Consultado en Junio 23, 2014. DOI= 219

Tlamati, Número Especial 3 CICOM 2014

Indicadores de potencia de WEB semántica Francisco Ham Salgado

Arnulfo Catalán Villegas

Rene E. Cuevas Valencia

Instituto Tecnológico de Iguala Unidad Académica de Ingeniería de la Unidad Académica de Ingeniería de Carretera Nacional Iguala-Taxco Esq. Universidad Autónoma de Guerrero la Universidad Autónoma de Guerrero Periférico Norte Col. Adolfo López Av. Lázaro Cárdenas s/n, Av. Lázaro Cárdenas s/n, Mateos, Iguala Guerrero, México. Ciudad Universitaria. Chilpancingo Ciudad Universitaria. Chilpancingo 01 (733) 332-14-25 Guerrero México Guerrero México 01 (747) 47 2-79-43 01 (747) 47 2-79-43 [emailprotected]

[emailprotected]

[emailprotected]

strong orientation to the presentation and delivery data). The purpose of the Semantic Web is to allow automatic processing information on Web pages, by programs and agents capable to understand the meaning of this data. To make this possible it is necessary for the data to be accompanied by metadata that define its semantics explicitly.

RESUMEN Uno de los grandes problemas de la Web actual, desde el punto de vista del procesamiento automatizado, es que está basado principalmente en HTML (formato difícil de entender por las computadoras al estar muy orientado a la presentación y distribución de contenidos). El objetivo de la Web Semántica es el de permitir el procesamiento automático de la información que aparece en las páginas Web, por parte de programas y agentes capaces de entender el significado de los datos. Para hacer esto posible es necesario que los datos estén acompañados de metadatos que definan explícitamente su semántica.

Typically this metadata is based on ontologies that associate a consensual meaning to each of the parts of the Web-published document. With this, an intelligent agent based on inference engines capable to descriptive a page can find the information that meets the user browsing requirements even much more efficiently than simple keyword one.

Típicamente estos metadatos están basados en ontologías que asocian un significado consensuado a cada una de las partes del documento publicado en la Web. Con lo anterior, un agente inteligente basado en motores de inferencia capaces de descriptivos de una página, puede encontrar para el usuario la información que satisfaga sus requisitos de búsqueda con una mayor eficacia que la simple búsqueda por palabras claves.

PALABRAS CLAVE: Web Semántica, metadatos, métricas.

1. INTRODUCCIÓN ABSTRACT

Se presentará el diseño de Indicadores de Potencia de Web Semántica (IPWS) basado en una arquitectura en capas adecuado para ser implementado con tecnologías de la Web Semántica. En el diseño se mostrará la composición modular de los subsistemas y las funciones de cada módulo y de cada capa de la arquitectura. Además se definirá un marco conceptual que proporcionará un vocabulario e infraestructura homogénea para su efectiva explotación. Es importante destacar en este punto que los IPWS propuestos fueron diseñados como un repositorio de metadatos de métricas e indicadores y no para guardar instancias de valores resultantes de su aplicación en proyectos específicos, es decir, se guarda información de las métricas y los indicadores, no de las medidas obtenidas o de los valores indicadores calculados. Como resultado de un trabajo de investigación sobre conceptos definidos en el área de métricas e indicadores, y teniendo en cuenta estándares internacionales [IS09126, IS014598, IS015939], trabajos de investigación [Bri02, Gen03, Kitch01, 01s00, Zus98] y la discusión en grupos de especialistas sobre una

One of the major problems of the current Web concerning automatic processing is that it is primarily based on HTML (which is a format difficult to understand by computers due to its El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

220

Tlamati, Número Especial 3 CICOM 2014 terminología común para dicho ámbito, se definió una ontología para el dominio de métricas e indicadores, especificando conceptos, relaciones, propiedades y axiomas. Esta ontología permite compartir información relacionada a métricas e indicadores con una interpretación unificada.

significado de los contenidos de las páginas y proporcionar un ambiente donde las aplicaciones puedan procesar y relacionar contenidos provenientes de distintas fuentes. En la propuesta de desarrollo de la Web Semántica del consorcio W3C [W3Csw] se sugiere una arquitectura básica en capas (ver siguiente Fig. 1), comenzando por la capa de nivel inferior XML (eXtended Markup Language) que permite estructurar sintácticamente los datos, siguiendo por una capa RDF que define la semántica de dichos datos, luego por la capa ontológica que define los conceptos y relaciones para distintos dominios y por último, la capa lógica, que define las reglas lógicas y mecanismos para hacer inferencias.

2 Indicadores basados en una Ontología con Potencia de Web Semántica. Teniendo en cuenta el análisis del estado del arte en sistemas de métricas y evaluando la importancia de contar con un catálogo para soporte a los procesos de medición y evaluación en el área de Ingeniería de Software se observa la necesidad de contar con un catálogo debidamente estructurado para explotar la información sobre indicadores. Las características que debieran cumplir los indicadores para que sea de utilidad y sirva de apoyo a los procesos de evaluación en el área de Ingeniería de software e Ingeniería Web son: •

Interoperabilidad: que facilite el intercambio de información entre distintas aplicaciones de usuario o herramientas, aún cuando estén implementadas en plataformas distintas. Para garantizar la interoperabilidad en este sistema, se propone su implementación bajo estándares de marcado (XML, SXML), estándares de Web semántica (como RDF, RDFS, OWL) y de arquitecturas de ambientes distribuidos de amplia difusión. Generalidad: que proporcione un marco común de trabajo en la documentación de métricas e indicadores que pueda ser aprovechado en distintos ámbitos y desde distintas perspectivas. Para este fin, se propone un modelo que no está comprometido con un dominio de software específico. Simplicidad: que el uso del repositorio, ya sea por parte de los administradores, usuarios o herramientas finales deba hacerse a través de interfaces y operaciones estándares simples, como por ejemplo: Registro, Búsqueda, Exploración, etc. con el fin de proveer un entorno fácil de usar, aprender y operar. Extensibilidad: que facilite la publicación de nueva información y la actualización de la existente. Para lograr este objetivo, tanto la estructura como la semántica de los datos (los metadatos) formaran parte de la catalogación.

Figura 1. Arquitectura básica para el enfoque semántico.

Las páginas web tradicionales contienen datos no estructurados que si bien son fáciles de interpretar por los seres humanos no pueden ser procesados por máquinas debido a la falta de estructura sintáctica. Cada vez son más frecuentes las páginas Web que contienen tablas, estadísticas, formularios repletos de datos que proceden de alguna fuente de información estructurada, sin embargo, estos datos al ser convertidos en texto HTML sin estructura lógica alguna, pierden toda su capacidad operativa. El lenguaje XML (eXtensible Markup Language) fue creado en 1998 por el W3C y soluciona este problema permitiendo describir la estructura de los contenidos de datos que se encuentran en las páginas Web. Utilizando este lenguaje es posible definir arbitrariamente una estructura para un documento, aún cuando no exista ninguna información sobre el significado de dicha estructura.

No-ambigfiedad (en la interpretación de la información): Para que la información del catálogo pueda ser claramente interpretada y, como consecuencia de ello, los resultados de su aplicación a distintos proyectos de evaluación puedan ser confiablemente comparados. Esto se podrá lograr si se establece una terminología común, consensuada y formalmente especificada; es decir, el catálogo estará basado en una Ontología.

El lenguaje XML permite incluir metadatos (datos que describen datos) dentro de los documentos Web de modo que las computadoras del usuario, puedan realizar tareas de manipulación de la información. El lenguaje Esquema XML (XMLS) permite definir qué elementos puede contener un documento XML, como están estructurados, que atributos y de qué tipo pueden tener esos elementos. Es decir XMLS permite definir las etiquetas de marcado para estructurar los datos XML, por lo tanto es un metalenguaje ya que nos permite definir nuevos lenguajes XML adecuados para su use en distintos dominios de una manera flexible y extensible. En el ejemplo anterior, las etiquetas

3 Arquitectura de Web Semántica La Web Semántica está surgiendo como una evolución de la Web actual a la que se agrega una estructura para captar el 221

Tlamati, Número Especial 3 CICOM 2014 , , etc. se han definido de esta manera, en un esquema XML que conforma un documento externo.

(no hay negación, implicación, cardinalidad, cuantificación), no es posible definir propiedades de propiedades (transitividad, simetría, etc.), no permite especificar condiciones necesarias y suficientes para establecer la pertenencia a una clase.

Los estándares XML y XMLS aportan mucha potencia y flexibilidad a las aplicaciones basadas en la Web, proporcionando numerosas ventajas a los programadores y usuarios.

4 Descripción Conceptual de la medición. En esta sección se presenta una descripción conceptual mostrando que se entiende por métrica, indicador, medición y demás conceptos de la ontología de métricas e indicadores, para un mejor entendimiento de los términos. Es decir, se presentan las estructuras y relaciones existentes entre las necesidades de información de un proyecto de evaluación y los elementos relevantes: entidades, atributos, métricas, métodos de cálculo y de medición, etc., que permiten obtener los informes que satisfagan dichas necesidades de información.

Mientras que XML permite definir datos de una forma estructurada, RDF permite definir la semántica de esos datos. El modelo RDF se compone de tres conceptos principales: Los recursos, que representan cualquier cosa (lugares, personas, objetos) del mundo real y están identificados por un URI (Universal Resource Identifier); las propiedades que son atributos o relaciones para describir un recurso, y las sentencias que es una combinación de los conceptos anteriores y se compone de un sujeto, un predicado y un objeto. El significado de los datos se expresa mediante un conjunto de dichas sentencias que son representadas por tri-uplas (sujeto, predicado, objeto) y que se escriben usando marcas XML.

Debido a que muchas de las fuentes de información para la construcción de la ontología están escritas en idioma Inglés, se ha considerado más ilustrativo indicar los términos de la ontología en inglés, entre paréntesis, al lado de su correspondiente término en español. La selección o definición de las métricas adecuadas para satisfacer una necesidad de información (Information Need), comienza con la especificación de un concepto medible o calculable (Calculable Concept) a ser evaluado o estimado.

El sujeto es un recurso identificado por un URI, los recursos pueden representar personas, lugares o cosas en el mundo real. El predicado describe una propiedad o atributo del recurso, y permite la definición de un nuevo concepto a través de un puntero al documento (URI) donde está definido dicho concepto. Otra forma de representar las declaraciones RDF es a través de un grafo rotulado. (ver siguiente Fig. 2).

Un concepto calculable es una idea de cuáles son los atributos relacionados con dicho concepto para satisfacer una necesidad de información y cómo estos están relacionados entre sí. Es decir, un concepto calculable es una relación abstracta entre atributos de entidades y necesidades de información. Por ejemplo, una necesidad de información podría ser "comparar la productividad de grupos de desarrollo en un proyecto de software", en este caso, el concepto calculable sería "Productividad". Y la entidad (Entity) sobre el que se aplica sería el "grupo de desarrollo". Para evaluar este concepto, podría requerirse medir atributos como: el tamaño de los productos de software producidos, la cantidad de recursos requeridos, etc., dependiendo del modelo del concepto (Concept Model) elegido para "Productividad". Otros ejemplos de conceptos calculables podrían ser calidad, accesibilidad, costo, entre otros. Considerando el nivel de abstracción del concepto calculable, puede ser descompuesto en sub-conceptos, conformando una jerarquía de conceptos calculables representada por un modelo de concepto (Concept Model). Por ejemplo, el estándar ISO 9126-1 especifica un modelo de calidad con características y subcaracterísticas. Uno o más atributos de entidades se asocian a cada concepto calculable.

Figura No. 2 Representación gráfica de las declaraciones RDF. La capa lógica está compuesta por un conjunto de axiomas y reglas de inferencia que los agentes (computacionales o humanos) podrán utilizar para relacionar y procesar la información. Estas reglas ofrecen el poder de deducir nuevas sentencias a partir de los datos y estructuras que están descritos en las capas XML y RDF, usando además las relaciones entre esos datos y estructuras definidas en la capa Ontológica.

Una entidad (Entity) es un objeto tangible o intangible, que se caracteriza mediante la medición de sus atributos. Tipos de entidades de interés en Ingeniería de Software podrían ser proyectos, productos, servicios, procesos o recursos (por ejemplo, módulos de programas, grupos de desarrollo, servicio de mantenimiento, podrían ser entidades a las cuales se les desea medir sus atributos).

La expresividad de RDF y RDFS para modelar ontologías completas es muy limitada: en el caso de RDF se limita (en líneas generales) a representar predicados binarios, y RDFS (también en líneas generales) está limitado a jerarquía de clases, jerarquía de propiedades con definición de restricciones de dominio y rango de dichas propiedades. RDF/RDFS carece de soporte para tipos de datos primitivos, carece de poder expresivo para representar axiomas

Un atributo (Attribute) es una propiedad medible de una entidad. Una entidad puede tener muchos atributos, pero sólo algunos de ellos podrían ser de interés para evaluar un concepto calculable.

222

Tlamati, Número Especial 3 CICOM 2014 Un atributo de una entidad puede ser cuantificado por una o varias métricas (Metric). Cada observación o medición (Measurement) consiste en asignar (obtener) el valor de un atributo, en un determinado instante o punto en el tiempo, usando la definición de una de sus métricas asociadas. El valor de atributo obtenido es llamado medida (Measure).

Model

Las métricas pueden ser directas o indirectas. Las métricas directas (Direct Metric) son aquellas cuya definición no depende de otras métricas. Las métricas indirectas (Indirect Metric), en cambio, dependen de otras métricas y están especificadas por una función (Function) de cálculo. Cada métrica está definida por un determinado método (Method) que puede ser un método de medición (Measurement Method) (para el caso de las métricas directas), o un método de cálculo (Calculation Method) (para el caso de las métricas indirectas). Estos métodos pueden estar soportados por herramientas de software (Software Tool) que automaticen el proceso de recolección de datos y/o cálculo.

Decision Criteria

concepto identificado.

Una representación formal o semi formal de un modelo de concepto.

References

Referencias a recursos bibliográficos o URLs, donde se puede consultar información adicional y autoritativa referente al modelo de concepto.

Name

Nombre de un criterio de decisión para ser identificado.

Description

Una descripción no ambigua del significado del criterio de decisión.

Nombre de elemental identificado.

Specification

Una representación formal o semiformal de un modelo elemental.

Name

Nombre de una entidad para ser identificada.

Description

Una descripción no ambigua del significado de la entidad.

Specification

Una representación formal o semiformal de una función. Sinónimo formula.

Name

Nombre de un modelo global para ser identificado.

Specification

Una representación formal o semiformal de un modelo global. Puede ser por ejemplo, una representación lógica o matemática.

Name

Nombre de un indicador para ser identificado.

Accuracy

Una cuantificación del nivel de confianza inherente a la manera en que se produce el valor de un indicador.

Entity

Function

Los indicadores pueden ser elementales o globales. Los indicadores elementales (Elementary Indicator) son aquellos que no dependen de otros indicadores para evaluar o estimar un concepto calculable y están modelados por un modelo de análisis elemental (Elementary Model). Los indicadores globales (Global Indicator) en cambio, dependen de otros indicadores y están modelados por un modelo de análisis global (Global Model).

Global Model

Tabla de atributos de la Ontología Métricas e Indicadores. Concepto

Atributo

Valores numéricos especificando por ejemplo, los limites inferior y superior para un criterio dado.

Name Elementary Model

El valor de un indicador (Indicator Value) se obtiene aplicando un cierto método de cálculo y escala (definición de indicador), para interpretar los valores de una o varias métricas utilizando determinados criterios de decisión (Decision Criteria). A ésta actividad de obtener un valor de indicador para un concepto calculable usando una determinada definición de indicador la llamamos Cálculo (Calculation).

ser

Specification

Range

Además cada métrica está asociada a una determinada escala (Scale). Las escalas pueden ser de 5 tipos diferentes: absoluta, nominal, ordinal, intervalo y proporción. Además las escalas se clasifican en dos grandes categorías: escala categórica (Categorical Scale) cuando los valores son categóricos, ya sean ordenados o no, y no pueden ser expresados en una unidad; y por otro lado escala numérica (Numerical Scale), cuando los valores son numéricos. En éste último caso, la escala esta expresada en una determinada unidad (Unit).

para

Descripción

un modelo para ser

Name

Nombre de un atributo para ser identificado.

Definition

Una descripción no ambigua del significado del atributo.

Name

Nombre de un concepto calculable para ser identificado.

Description

Una descripción no ambigua del significado del cuerpo

Calculation

timePoint

Instante del tiempo en se realiza el cálculo.

Categorical Scale

allowedValues

Lista de literales que indican los valores validos de una escala categórica.

Indicator Value

Value

Resultado numérico categ6rico asignado a un indicador [IS015939]. Sinónimo.

Concept

Name

Nombre de un modelo de

Information

Description

Una descripción no ambigua del

Attribute

Calculable Concept

Indicator

References

223

Referencias a recursos bibliográficos o URLs, donde se puede consultar información adicional y autoritativa referente al indicador.

Tlamati, Número Especial 3 CICOM 2014 Need

significado de la necesidad de información.

Measure

Value

Resultado numérico categ6rico asignado a una métrica. Sinónimo.

Measurement

timePoint

Instante del tiempo en se realiza la medici6n.

Type

Indica el tipo de método de medición, que depende de la naturaleza de las operaciones usadas para cuantificar un atributo. Se pueden distinguir dos tipos: subjetivo (la cuantificación se basa en un juicio humano), y objetivo (la cuantificación se basa en cálculos numéricos) [IS015939].

Name

Nombre de un método para ser identificado.

Specification

Una descripción formal o semiformal de un método.

Name

Nombre de una métrica para ser identificada.

valueIntetpretat ion

Una declaración textual no ambigua para ayudar a los distintos participantes a entender el significado del valor obtenido. Por ejemplo, cuanto más cercano a cero mejor.

Objective

Objetivo o prop6sito de aplicar una métrica especifica.

References

Referencias a recursos bibliográficos o URLs, donde se puede consultar información adicional y autoritativa referente a la métrica.

valueType

Tipo de valor que una métrica puede tomar. Puede ser un símbolo, un número entero o punto flotante.

Accuracy

Una cuantificación del nivel de confianza inherente a la manera en que se produce el valor de una métrica.

Teyp

Una escala numérica puede ser continua o discreta.

scaleType

El tipo de escala depende de la naturaleza de la r e l a c i ón e ntr e l o s va l or e s de la e sc a la [IS015939]. Los tipos de escala comúnmente definidos son: nominal, ordinal (restringida o no restringida), intervalo, proporción o absoluta.

Measurement Method

Method

Metric

Numerical Scale

Scale

Software Tool

Name

Nombre de una herramienta de software para ser identificada.

Description

Una descripción no ambigua de la herramienta de software

Version

Nuttier° que indica la versión de la herramienta de software.

Provider

Indica el nombre (o URL) del proveedor de la herramienta de software.

Name

Nombre de una unidad para ser identificada.

Description

Una descripción no ambigua del significado de la unidad.

Unit

5 Aplicabilidad La Ingeniería de Software, al igual que otras ingenierías, necesita de información de métricas e indicadores para poder especificar, predecir, evaluar y analizar distintos atributos y características de los entes (productos, procesos, etc.) que participan en el desarrollo y mantenimiento del software. Observando el volumen cada vez mayor y heterogéneo de dicha información, y teniendo en cuenta su importancia como base fundamental para las actividades de medición y evaluación en el área de Ingeniería de Software, se puede ver la importancia de disponer de repositorios genéricos y soporte de catalogación que faciliten de un modo extensible, el almacenamiento, consulta, explotación y reúso de toda la información relacionada a métricas e indicadores. La Catalogación de Indicadores responde a la necesidad planteada, posibilitando que la información obtenida de distintas fuentes y relacionada a distintos ámbitos de aplicación pueda ser compartida y reusada, en pos de mediciones más objetivas, precisas, reproducibles y significativas. Además, al estar implementado con tecnologías de Web semántica, la información del catálogo tiene un significado bien definido formalmente, facilitando su procesamiento automático, y permitiendo, de esta manera, que los datos y meta-datos de métricas e indicadores puedan ser explotados tanto por agentes automáticos como por herramientas de medición y/o evaluación.

6 Referencias [1] Albrecht A.J. and Gaffney J.E., 1983, "Software function, source lines of code and development effort prediction: a software science validation", IEEE Transactions, 6(1983), pp. 639648.. [2] Beck, H. and Pinto, S.; 2002. "Overview of Approach, Methodologies, Standards, and Tools for Ontologies". Disponible en http://it.ifas.ufl.edu/AOS/BackgroundPaper [3] Brickley, D. and Guha, R., 2000. "Resource Description Framework (RDF) Schema S p e c i f i c a t i o n 1 . 0 . " , Technical report, W3C, 27 March 2000. http://www.w3.org/TR/2000/CR-rdf-schema-20000327.

224

Tlamati, Número Especial 3 CICOM 2014 [4] Chandrasekaran, B. 1999. "What Are Ontologies, and Why Do We Need Them?. IEEE Inteligent Systems, Janeiro 7 Fevereiro 99, EUA. [5] Conte S.D., Shen V.Y. and Dinsmore H.E., 1986, "Software Engineering Metrics and Models".

[7] Fernandez Lopez, M.; Gomez-Perez, A. and Juristo, N., 1997, "METHONTOLOGY: From Ontological Art Towards Ontological Engineering". Proceed. of the AAAI Symposium. University of Stanford; P.A., California, US, pp. 33-40.

[6] Cranefield, S. and Purvis, M. 1999. "UML as an ontology modelling language". In Proceedings of the Workshop on Intelligent Information Integration, 16th International Joint Conference on Artificial Intelligence (IJCAI-99).

[8] Lassila 0. and Swick R. R. (editores). "Resource description framework (RDF): Model and syn tax sp ecifi cation", 19 99 . W3 C Recommendation 1999-02-2 2 , http://www.w3.org/TR/REC-rdf-syntax.

225

Tlamati, Número Especial 3 CICOM 2014

Modeling the dynamics of a 2 DOF robotic arm using Matlab. Luis Daniel Samper Escalante

Yolanda Isabel Escalante Estrada

Escuela de Graduados e Innovación. Tecnológico de Monterrey Campus Puebla. Vía Atlixcáyotl No. 2301, Reserva Territorial Atlixcáyotl. Puebla, Puebla. México. C.P. 72453. Tel. (+52) 222 303 2000

Instituto de Investigación Científica área Ciencias Naturales. Universidad Autónoma de Guerrero. Av. L. Cárdenas, S/N. Cd. Universitaria. C. P. 39090. Chilpancingo, Guerrero, México. Tel. (+52) 747 472 9630

[emailprotected]

[emailprotected]

In fact, many of the most efficient algorithms in dynamics, that are applicable to a wide class of mechanisms, were developed by robotics researchers [1-3].

ABSTRACT Automatic control of a robotic arm involves study of kinematics and dynamics as a major issue. This paper involves the dynamics of a 2-DOF robotic arm. In this paper Matlab was used as the software of choice. The simulation was done using Simulink and describing the motion of the system as state equations.

Most robot manipulators are driven by electric, hydraulic, or pneumatic actuators, which apply torques (or forces, in the case of linear actuators) at the joints of the robot [4-5]. The dynamics of a robot manipulator describes how the robot moves in response to these actuator forces.

Categories and Subject Descriptors I.2.9 [Artificial Intelligence]: Robotics – Kinematics and dynamics, Manipulators.

2. BACKGROUND The dynamics of the robotic arm will be described using a set of nonlinear, second-order, ordinary di erential equations which depend on the kinematic and inertial properties of the robot [6].

General Terms Design, Verification.

Although in principle these equations can be derived by summing all of the forces acting on the coupled rigid bodies which form the robot, these are used instead on a Lagrangian derivation of the dynamics.

Keywords Dynamics, Robotic Arm, 2 DOF, Lagrangian, Simulation.

This technique has the advantage of requiring only the kinetic and potential energies of the system to be computed, and hence tends to be less prone to error than summing together the inertial, Coriolis, centrifugal, actuator, and other forces acting on the robot’s joints. It also allows the structural properties of the dynamics to be determined and exploited.

1. INTRODUCTION Many contributions have been made in the area of robot dynamics since the earliest work more than two decades ago. In the field of the dynamics of mechanisms, the robotics community has especially focused on the problem of computational efficiency. El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

Figure 1. General description of a robotic arm.

226

Tlamati, Número Especial 3 CICOM 2014 There are many methods for generating the dynamic equations of a mechanical system [7]. All methods generate equivalent sets of equations, but di erent forms of the equations may be better suited for computation or analysis. Lagrangian analysis will be used for the derivation, which relies on the energy properties of mechanical systems to compute the equations of motion.

x4=

2

The resulting equations can be computed in state equations, allowing detailed analysis of the properties of the system. Figure 1 shows a general description of the robotic arm. This system can be described as: 1= 1 sin

1

1=

1 cos

1

2=

1 sin

1+ 2

2= 1

cos 1+

2

sin ( 1+ 2) cos ( 1+ 2)

With this equations, Kinetic Energy could be formed as: =

1 1

2

+

1 1

2

+

2 2

2

+

2 2

2

By simplification, =( s

2

1+

2) 1 2 1 2+ 1 )

(

2

2 1

+

2 2 2

2 1

+

2 2 2

1 2+

2 2 2

2

+

2 1 2co

2

+

2 1 2co

2

And Potential Energy is: =

1

1cos 1 +

2( 1cos 1+ 2cos

( 1+ 2))

= ! =( s 2(

1+ 1 2+

2 2 2 2 2) 1 1 + 2 2 1 + 2 1 )! 1 1cos 1 ! 2

2 2 2

1 2+

2 2 2

2

( 1cos 1+ 2cos( 1+ 2))

So, after forming the dynamic equations, and proper simplifications they become the Lagrange-Euler equation for dissipative forces:

3. DEVELOPMENT 3.1 Equation Proposal The state equations are as follows:

3.2 Simulation The Simulink model is illustrated in Figure 2.

x1=

1

x2=

1

x3=

2

227

Tlamati, Número Especial 3 CICOM 2014

Fig. 5. Change ratio of

2

against time.

Figure 2. Simulink model. For the simulation, variable values were arbitrarily selected, being the following: m1=0.5 kg, m2=0.7 kg, l1= 0.35 m, l2= 0.3 m, b1=b2= 0.001 Ns/m Figure 3, 4, 5 and 6 express change ratio of time.

1,

,

2,

2,

against

Fig. 6. Change ratio of

against time.

In Figure 7 and 8, phase states are plotted.

Fig. 3. Change ratio of

1

against time.

Fig. 7. Phase state of

Fig. 4. Change ratio of

against time.

228

1.and

Tlamati, Número Especial 3 CICOM 2014

5. REFERENCES [1] Luh, J. Y. S., Walker, M. W. and Paul, R. P. C. 1980. “OnLine Computational Scheme for Mechanical Manipulators" Trans. ASME, J. Dynamic Systems, Measurement & Control. 102, 2, 69-76. [2] Walker, M. W. and Orin, D. E. 1982. "Efficient Dynamic Computer Simulation of Robotic Mechanisms", Trans. ASME, J. Dynamic Systems, Measurement & Control. 104, 205-211. [3] Featherstone, R. 1983. "The Calculation of Robot Dynamics using Articulated-Body Inertias" Int. J. Robotics Research. 2, 1, 13-30. Fig. 8. Phase state of

[4] Brady, M., Hollerbach, J. M., Johnson, T. L., Lozano-Perez, T. and Mason, M. T. 1982. “Robot Motion: Planning and Control.” Cambridge, MA: The MIT Press.

2.and

[5] Featherstone, R. and Orin, D. 2000. "Robot dynamics: equations and algorithms." Robotics and Automation, 2000. Proceedings. ICRA '00. IEEE International Conference on, 1, 826-834.

4. CONCLUSIONS Lagrange’s equations are an elegant formulation of the dynamics of a mechanical system. They reduce the number of equations needed to describe the motion of the system from n, the number of particles in the system, to m, the number of generalized coordinates.

[6] Spong M. W. 1989 “Robot Dynamics and Control” John Wiley & Sons, Inc., New York, NY, USA. [7] Featherstone, R. 2007. "Rigid Body Dynamics Algorithms." Boston, Springer.

After reviewing and interpreting the results in the graphs, the simulation demonstrated that without control the signal oscillate wildly, but decreasing over time, because even when friction is minimal, it still affects the model. It is obvious that some kind of stability should be implemented for more accurate results.

229

Tlamati, Número Especial 3 CICOM 2014

Solución del TSP y 8 Reinas Usando Algoritmos Genéticos Luis Daniel Samper Escalante

Carlos Antonio Osorio Maceda

Yolanda Isabel Escalante Estrada

Escuela de Graduados e Innovación. Tecnológico de Monterrey Campus Puebla. Vía Atlixcáyotl No. 2301, Reserva Territorial Atlixcáyotl. Puebla, Puebla. México. C.P. 72453. Tel. (+52) 222 303 2000

Escuela de Graduados e Innovación. Tecnológico de Monterrey Campus Puebla. Vía Atlixcáyotl No. 2301, Reserva Territorial Atlixcáyotl. Puebla, Puebla. México. C.P. 72453. Tel. (+52) 222 303 2000

[emailprotected]

[emailprotected]

Instituto de Investigación Científica área Ciencias Naturales. Universidad Autónoma de Guerrero. Av. L. Cárdenas, S/N. Cd. Universitaria. C. P. 39090. Chilpancingo, Guerrero, México. Tel. (+52) 747 472 9630

todas las ciudades y volver a la ciudad inicial. Es un problema ampliamente conocido debido a la facilidad que tiene de poderse explicar a un público grande.

RESUMEN El presente documento presenta la implementación en la herramienta de software matemático Matlab y en el lenguaje de alto nivel llamado Python del problema NP-Duro conocido TSP (Problema Del Agente Viajero) y el problema de las 8 reinas respectivamente utilizando algoritmos genéticos.

Por otro lado, en el problema de las 8 reinas se busca colocar 8 reinas en un tablero de ajedrez cuadrado sin que se ataquen. Este problema es clásico en juegos de estrategia y es una manera amigable y eficiente de introducir las soluciones de problemas con back tracking.

Categorías y Descriptores de Tema G.2.2 [Discrete Mathematics]: Graph algorithms, path and circuit problems.

Theory

[emailprotected]

graph

Se proponen 2 soluciones, una para cada problema, utilizando algoritmos genéticos en 2 programas diferentes. Para el problema del agente viajero se utilizó la herramienta de software matemático Matlab y para el de las 8 reinas el lenguaje de alto nivel Python.

Terminos Generales Algoritmos, Medida, Desempeño, Diseño.

Este trabajo está dividido de la siguiente manera: en la sección II se presenta el marco teórico; en la sección 3 se detalla la implementación; finalmente, en la sección 4 se muestran las conclusiones obtenidas.

Palabras Clave Problema del Agente Viajero, Matlab, Python, 8 Reinas.

2. MARCO TEÓRICO

1. INTRODUCCION El problema del agente viajero (o en sus siglas en inglés, TSP) fue formulado formalmente en 1930 y es uno de los más estudiados como problema de optimización. Es un problema NP-Duro importante en la investigación de sistemas y ciencia computacional teórica [1-2].

2.1 Problema del Agente Viajero Aunque se tienen registros de que el problema del agente viajero fue propuesto por W. R. Hamilton por los años 1800, se considera que Karl Menger, en 1930, propone formalmente el problema del agente viajero, proponiendo una solución a fuerza bruta, con la finalidad de observar la no optimalidad de la heurística.

Este problema en su definición más simple nos pide calcular la ruta óptima de un viajante que parte de la ciudad A para visitar

Este problema es uno de los más famosos en el campo de la optimización combinatoria computacional, y generalmente se muestra como la equivalencia de encontrar un ciclo Hamiltoniano de costo mínimo.

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

El problema del agente viajero se describe como sigue: un agente viajero desea programar visitas a sus clientes que se encuentran en diferentes ciudades, por lo que desea viajar lo mínimo posible, partiendo de una ciudad inicial, denominada A, y regresa a esta ciudad A después de visitar a todas las demás.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

Este problema en su forma más simple tiene aplicaciones en diversas ramas, como la planeación, la logística, o la manufactura 230

Tlamati, Número Especial 3 CICOM 2014 de circuitos. Sufriendo algunas modificaciones, puede ser tratado como un sub problema en diversas áreas, como la secuencia del ADN, donde el concepto de ciudades es representado por los fragmentos del ADN. El problema normalmente es modelado como un grafo no dirigido ponderado donde las ciudades se representan con los vértices del grafo y los caminos con las aristas, y el tamaño del camino es el tamaño de la arista. La figura 1 muestra un ejemplo de este grafo.

Figura 2. Solución del problema de las 8 reinas Encontrar todas las soluciones en un juego de estrategia es un buen ejemplo de un problema simple pero no trivial. Es por esto que generalmente el problema de las 8 reinas puede ser trabajado por diversas técnicas de programación, incluyendo acercamientos no tradicionales como la programación por restricciones, por lógica o por algoritmos genéticos, siendo este último el usado en este documento [3-4]. Figura 1. Grafo no dirigido ponderado de un TSP.

2.3 Algoritmos Genéticos Son algoritmos cuya heurística de búsqueda es adaptable, y cuya inspiración proviene de la teoría de la evolución propuesta por Darwin [5]. Estos algoritmos imitan el proceso de selección natural, y son usados rutinariamente para generar soluciones útiles en optimización y búsqueda de problemas.

2.2 Problema de las 8 Reinas Este problema fue publicado originalmente en 1848 por Max Bezzel, y Franz Nauck publicó las primeras soluciones en 1850, extendiéndolo a su vez a n reinas.

John Holland fue uno de los primeros en trabajar con algoritmos genéticos por ahí de los años 60. A partir de ahí estos algoritmos han sido ampliamente estudiados, experimentados y aplicados a diversas ramas de la ciencia, como la ingeniería, la física, las matemáticas, la química, la manufactura, entre otras.

En 1874 S. Gunther propuso un método de solución utilizando determinantes, y en 1972, Edsger Dijkstra usó este problema para ilustrar el poder de la programación estructurada, que se encontraba en su etapa de apogeo. El problema de las 8 reinas consiste en colocar 8 piezas de reina en un tablero cuadrado de 8x8 con el objetivo de que dos reinas se ataquen. Por definición esto significa que 2 reinas no pueden estar en la misma columna, fila, o diagonal del tablero.

En un algoritmo genético, existe una población de soluciones candidatas, llamadas individuos, que son evolucionados a través de técnicas para convertirlas en mejores soluciones. Cada solución tiene un conjunto de propiedades conocidas como genotipo el cual puede ser mutado o alterado, y generalmente se representa por una cadena de caracteres con unos y ceros.

Este problema puede ser costoso computacionalmente hablando ya que existen P (64, 8) posibles combinaciones de 8 reinas en un tablero de 8 x 8, pero solo 92 soluciones.

Cada iteración donde se modifican los genotipos de los individuos se conoce como una generación, ya que contiene una nueva población derivada de alteraciones a la anterior. Las operaciones más comunes en las poblaciones son las de herencia, mutación, selección y cruce [6-7].

Es altamente recomendable el evitar usar fuerza bruta para este tipo de problemas, y de ser posible preferir atajos que reducen la carga computacional. Como se mencionó anteriormente, el problema tiene 92 soluciones. Si solo se consideran las soluciones únicas (esto es, aquellas que no se pueden generar por operaciones de simetría) se tendría que este problema cuenta con 12 soluciones fundamentales. La figura 2 muestra una de las 12 soluciones únicas de este problema.

Para garantizar la mejora en cada generación se utiliza una función de aptitud, que indica el valor de la función objetivo para el problema de optimización que se está resolviendo. Generalmente, un algoritmo genético requiere de una representación genética del dominio de las soluciones y una función de aptitud para evaluar este dominio.

231

Tlamati, Número Especial 3 CICOM 2014

3. IMPLEMENTACION

3.2 Problema de las 8 Reinas Usando Algoritmos Genéticos

3.1 Problema del Agente Viajero Usando Algoritmos Genéticos

Se comienza con una población de individuos que cada quien tiene su aptitud que indica que tan cerca están de la solución. Basada en esta aptitud se hace un cruce donde entre mayor aptitud mayor probabilidad de cruce.

La implementación del problema se realizó utilizando Matlab y el código proporcionado por J. Kirk en la página de Mathworks Inc. en el 2004.

La implementación tiene algunas características que es conveniente resaltar. La clase individuo contiene los métodos que conciernen al individuo, así como el cálculo de su aptitud.

En el programa se crean 50 ciudades con posiciones en x y y al azar donde la función fitness está dada por las distancias. La figura 3 muestra el estado inicial con las ciudades colocadas al azar.

Es aquí también donde se realizan las operaciones de cruce y mutación, así como un formato para su impresión en pantalla. La figura 5 muestra parte del código de la clase.

Figura 3. Estado inicial con las ciudades puestas al azar.

El tamaño de la población a generar es de 60 y tiene un límite de 1000 generaciones, en las cuales se espera se encuentre el mejor resultado.

Figura 5. Código de la clase individuo en Python.

Con estos parámetros se ejecutó el programa que finalmente entrego una respuesta satisfactoria. La figura 4 muestra esta imagen y con el camino más corto calculado.

Para calcular la aptitud de cada individuo se utiliza el número de colisiones que presenta, teniendo un máximo de 28. Esta aptitud usa una función donde el más alto es el mejor, teniendo que una aptitud de 28 tiene cero colisiones. Para determinar si se hace un cruce, se define una probabilidad que se calcula a partir de su aptitud, por lo que los mejores individuos tienen mayor probabilidad de cruzarse. La probabilidad de mutación se determina a partir de un porcentaje arbitrario, y el cambio es al azar. Finalmente, la figura 6 muestra el resultado de una corrida utilizando un factor de mutación del 50% y una población inicial de 100 individuos.

Figura 4. Solución del problema usando el programa

232

Tlamati, Número Especial 3 CICOM 2014 Finalmente, es importante conocer las ventajas y virtudes de estos algoritmos para aprovechar al máximo su implementación, ya que no están diseñados para todos los problemas. El crear una buena heurística y una función de aptitud dinámica es la clave para crear un algoritmo exitoso.

5. REFERENCIAS [1] Aaronson, S. 2005. “NP-complete problems and physical reality.” ACM SIGACT News, 36(1):30–52 [2] Garey M. R. and Johnson D. S. 1979. “Computers and Intractability: A Guide to the Theory of NP-Completeness.” W. H. Freeman. [3] Goodrich, M. T. and Tamassia, R. 2002. “Algorithm Design: Foundations, Analysis, and Internet Examples.” Wiley. [4] Manber, U. 1989. “Introduction to Algorithms: A Creative Approach.” Addison Wesley. [5] Darwin, C. 1888. “The Origin of Species by Means of Natural Selection, or The Preservation of Favoured Races in the Struggle for Life”. Murray, Londres.

Figura 6. Resultado de la ejecución, mostrando la solución.

[6] Muhlenbein, H. and Schlierkamp-Voosen, D. 1993. “Analysis of Selection, Mutation and Recombination in Genetic Algorithms”. Neural Network World 3, 907–933.

4. CONCLUSION Los algoritmos genéticos son una muy buena opción para resolver problemas a comparación de los métodos tradicionales o fuerza bruta. No obstante, estos algoritmos no manejan muy bien la complejidad, y tienden a caer en mínimos locales.

[7] Matsui, K. 1999. “New Selection Method to Improve the Population Diversity in Genetic Algorithm”, 1999 IEEE International Conference on Systems, Man and Cybernetics 1. 625-630.

Es por eso que es necesario definir una función de aptitud óptima que permita evaluar correctamente a la población y de ser posible evolucione con la población. El repetir la misma función en cada generación puede causar que se limite la capacidad de desarrollo de la población.

233

Tlamati, Número Especial 3 CICOM 2014

Aulas virtuales y rendimiento escolar Alma Cristina Guerrero Arreola

Verónica del C. Quijada Monroy

Universidad Interamericana para el Desarrollo. Sede Acapulco Costera Miguel Alemán 2701 Fracc. Club Deportivo, C.P. 39690, Acapulco de Juárez, Guerrero 01 744 484 5200

Universidad Interamericana para el Desarrollo. México Av. Gustavo Baz no. 2160. Col. La Loma, C.P. 54060, Tlalnepantla, Estado de México 01 55 53621500 ext. 119

[emailprotected]

[emailprotected] RESUMEN

1. INTRODUCCIÓN

Se describe la experiencia acerca del uso de un aula virtual institucional en la Universidad Interamericana para el Desarrollo, mediante un diseño de investigación exploratorio en que se utilizaron dos grupos de alumnos de la misma licenciatura, que en un mismo periodo de tiempo cursaron la misma asignatura con la misma docente y que fueron evaluados de manera similar; la diferencia entre ambos grupos es que a uno de ellos se le aplicó un tratamiento, que en este caso consistió en la apertura del aula y el otro fue un grupo control.

La Universidad Interamericana para el Desarrollo (UNID) tiene el interés de fomentar el uso de los medios más actuales y apropiados para el aprendizaje de sus estudiantes. En ese sentido, una inquietud es que la comunidad educativa que participa en asignaturas presenciales normalmente no cuenta con el acceso a una plataforma educativa institucional que brinde apoyo a sus actividades académicas. A partir de tal situación, cabe preguntarse si en el contexto de la UNID, el uso de tal recurso significaría un factor que impacte positivamente en el aprovechamiento escolar y en la satisfacción de la experiencia educativa en el alumno.

La finalidad fue la de investigar si se daría algún impacto en el grupo que utilizara el aula virtual, tanto en términos de resultados cuantitativos como en cualitativos, a través del análisis del desempeño escolar de los alumnos en cuanto a calificación, como en los resultados en la evaluación de la docente de la profesora, y en los aspectos valorativos que ésta tuviera respecto a las reacciones de los alumnos de ambos grupos. Además, se buscó identificar si los resultados, de ser diferentes, podrían atribuirse al uso del aula virtual.

Surge entonces el planteamiento de desarrollar una experiencia de aprendizaje mixto, y a través de una investigación inicial que se realizó con la participación de una docente, en la Sede Acapulco al frente de dos grupos presenciales de licenciatura. Una vez realizada la aplicación de la propuesta, se elabora un reporte con la descripción del proyecto y de los hallazgos, mismos que se espera sean relevantes para futuras investigaciones y desarrollo de proyectos.

Categorías y descriptores

2. DESARROLLO

K.3.1 [Computer Uses in Education]: Distance learning

La Universidad Interamericana para el Desarrollo (UNID) es un sistema universitario multisede fundado en 2010, que se integra por 50 Sedes en 24 estados de la República Mexicana.

Términos generales Human Factors

2.1 Sede Acapulco

Palabra clave

La Sede Acapulco es parte de tal sistema, en la cual se atiende a 584 alumnos de los niveles de licenciatura y maestría con el apoyo de 50 docentes. En nivel Licenciatura se ofrecen las carreras de Ciencias y Técnicas de la Comunicación, Derecho, Mercadotecnia, Administración de empresas, Administración de Empresas Turísticas, e Ingeniería en Sistemas de la Información; en el nivel Maestría se cuenta con las especialidades en Administración de negocios, Educación, Mercadotecnia y Tecnologías de Información. La UNID Acapulco se encuentra ubicada en el Fraccionamiento Club Deportivo, sobre la avenida Costera Miguel Alemán, y el acceso es relativamente fácil debido a que existe gran cantidad de transporte hacia esa zona de la ciudad.

Aprendizaje mixto, aula virtual, ambiente de aprendizaje, aprendizaje móvil, rendimiento escolar. El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera. 4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

En sus instalaciones, la Sede cuenta con tres Centros de Transferencia de Conocimientos (CTC), en donde se encuentra 234

Tlamati, Número Especial 3 CICOM 2014 disponible equipo de cómputo y conexión a Internet, lo que permite ofrecer tanto a alumnos como docentes capacitación sobre el uso óptimo de los equipos de cómputo, así como un auxiliarles en las tareas propias de cada licenciatura o maestría, con programas especializados en cada una de las áreas.

acceso, sino a “ciertos tipos de uso” y a las características de cada contexto. En la UNID se tiene experiencia en cursos mixtos o en línea desde 2005, sin embargo, en todos ellos se han construido cursos completos en lo que el docente solamente participa como guía, es decir, normalmente siguen una serie de temas con contenidos y actividades ya programadas para cubrir el programa de la materia en el cuatrimestre correspondiente. En este contexto, puede ubicarse al menos un estudio respecto a la reacción de alumnos y docentes en el modelo mixto (González, 2007), uno de los resultados, fue que la totalidad de la totalidad de los instructores consideraron que” los resultados académicos de los estudiantes… son iguales o mejores a los que se tendrían en un curso presencial de la misma asignatura.”

Asimismo, de manera constante los profesores reciben capacitación a través de los cursos que se ofrecen en el Centro Interamericano para la Excelencia Docente (CIED) de la UNID, entre los más recientes se encuentran los de usos de redes sociales en los procesos educativos, que incluyó plataformas como Facebook, Twitter y Edmodo. También se les instruyó sobre el uso de los recursos didácticos en el salón de clase, con énfasis en el empleo de herramientas tecnológicas para el desarrollo de las temáticas propias de cada ámbito. Esta capacitación va orientada hacia un paulatino apropiamiento del uso de la Tecnologías de Información y Comunicación (TIC) en educación como parte de su labor cotidiana.

2.3 Planteamiento Una vez que se manifestó el interés por conocer si el uso de una plataforma virtual de apoyo en línea, que complementara clases presenciales, traería algún beneficio en el rendimiento académico de los alumnos y en su percepción acerca del desempeño de la profesora, se avanzó en el diseño de la investigación.

En cuanto a recursos materiales, se cuenta con Internet inalámbrico (Wi-Fi) en todo el edificio, con computadoras, videoproyectores, salón de usos múltiples, donde se puede utilizar una pantalla, bocinas y cabina de audio.

La propuesta es de tipo exploratorio, pues si bien existen investigaciones que parten de objetivos similares en la literatura internacional, y en la UNID se cuenta con la experiencia en asignaturas en línea o mixtas diseñadas de manera central, en la institución representaría la primera experiencia reportada de un aula virtual ofrecida por la ésta pero en la que no se colocan contenidos previamente y se deja el espacio abierto para el uso que la docente defina un empleo.

Uno de los recursos que la UNID ha introducido, es la idea de avanzar hacia el aprendizaje móvil o M-learning, desde hace cuatro años se introdujo el uso de los dispositivos (iPod), como una herramienta para que los estudiantes pudieran estar en contacto con la institución, realizar sus tareas y acceder a internet, aún sin contar con una computadora. Desde septiembre de 2013 se introdujeron las tabletas (iPad). La mayoría de los alumnos, cuentan con teléfonos celulares con acceso a Wi-Fi o con algún plan para el uso de datos, por lo que están constantemente conectados a internet.

De esta forma, se ubicó a una profesora que impartiría una misma asignatura en dos grupos, en este caso Guionismo, en la licenciatura en Comunicación con la finalidad de contar con un grupo control sin aula virtual y un grupo al que se apoyaría con un aula virtual.

2.2 Antecedentes Desde hace ya varias décadas, especialistas, investigadores, instituciones y docentes se han dado a la tarea de conocer si la eficacia de los procesos educativos está relacionada con la modalidad en que ésta se presente, sin embargo, después de múltiples análisis de estudios internacionales, García Aretio (2014) afirma que “la eficacia de un proceso educativo no está en la modalidad, sino en el rigor de los planteamientos pedagógicos que sustentan el diseño y desarrollo del proyecto.” En este sentido, dicho autor destaca que después de analizar unos mil trabajos al respecto, puede concluir que “no existen diferencias significativas entre los resultados obtenidos en los formatos presenciales y en la modalidad a distancia”. Si bien se observa que la tendencia parece favorecer los estudios a distancia, esta diferencia no resulta significativa.

Ambos grupos son de tipo natural, es decir, sus miembros no fueron elegidos al azar sino que se formaron según la dinámica institucional, donde la docente no tuvo intervención. Al final del curso, se buscó identificar las diferencias entre ambos grupos, testigo y control, con respecto al rendimiento académico, medido por los resultados de las evaluaciones cuyo contenido y estructura fue similar para los estudiantes de ambos grupos; así como por los resultados de la evaluación docente que realizan los alumnos en la institución.

2.4 Aplicación La plataforma empleada para habilitar el aula virtual es Moodle, en el espacio no se colocó ningún recurso didáctico, se dejó vacío con la finalidad de que la docente, como sucedió, lo utilizara de la forma complementaria en que lo creyera pertinente. No se capacitó en particular a la profesora, más allá de los cursos de actualización que la Universidad proporciona a todo su personal académico.

García Aretio también señala que en investigaciones más recientes, tanto experimentales como cuasiexperimentales, se ha encontrado que los resultados parecen favorecer a la educación mixta por sobre la presencial y la educación a distancia, aunque una vez más, no se identifica una diferencia significativa. Respecto a estudios de que relacionan el uso de TIC con el rendimiento de los estudiantes frente a pruebas estandarizadas, resulta complejo identificar el posible impacto que los usos particulares tienen en los resultados académicos (Claro, Sunkel & Trucco, 2010), asimismo, los resultados indican que si se presenta algún efecto atribuible al uso de TIC, éste no se vincula al simple

La maestra tiene 32 años de edad y más de tres de experiencia docente en nivel licenciatura, es licenciada en Comunicación y alumna de la maestría en Educación, en la misma UNID. Se desempeña profesionalmente como reportera y se interesa por el uso de tecnologías de información y comunicación (TIC) en el proceso educativo, manifiesta utilizar en sus clases presenciales 235

Tlamati, Número Especial 3 CICOM 2014 material en línea, libros electrónicos, tanto de la Biblioteca virtual UNID como externos; páginas web y pruebas en línea; redes sociales fuera del aula y grupos de trabajo a través del correo electrónico, de forma tal que el grupo esté comunicado sin estar en el mismo espacio. Sin embargo, no había tenido acceso a una plataforma institucional en la UNID, con una serie de recursos y actividades como los que cuenta Moodle y abierta para el uso particular de su grupo.

2.5 Espacio virtual El curso de Guionismo tiene una duración de un cuatrimestre o catorce semanas, y se impartió en el periodo escolar correspondiente a enero-mayo de 2014. El espacio se puso a disposición a través de Moodle, plataforma de aprendizaje o LMS (Learning Management System), en el cual la docente organizó en su aula mediante bloques las 14 sesiones (Figura 1). En cada bloque la profesora colocó materiales y actividades que apoyaran el proceso de enseñanza-aprendizaje. La primera vista que se tiene al ingresar es una visión general de las sesiones (Figura 1), enseguida se pueden ver los detalles de cada sesión, como es el caso de las sesiones dos y cuatro (Figura 2 y 3). Figura 3. Vista de una sesión y espacio para examen parcial

2.6 Resultados Una vez que el curso se desarrolló, y tanto los alumnos como la docente fueron evaluados, se realizó una revisión y análisis de los resultados obtenidos. Proceso que enseguida se describen desde los aspectos generales de tipo cualitativo como desde los cuantitativos.

2.6.1 Aspectos cualitativos En aspectos observables de forma cualitativa, la docente reportó que los alumnos tomaron de manera positiva la iniciativa del uso de la plataforma e incluso les generó emoción, hubo quién comentó que esta opción “les ayudaría a tener más material para la clase”. Una vez que se informó a los alumnos la forma de trabajo, en que se avanzaría de manera simultánea, tanto en el salón como en la plataforma, se dio un ambiente de expectación, ya que algunos alumnos no sabían cómo trabajar en línea, a pesar de que tenían una experiencia con una materia virtual.

Figura 1. Vista inicial del aula virtual

Se dieron algunas dificultades para el acceso al curso, pues a pesar de que los alumnos tuvieron detalle de cómo ingresar, hubo quienes se confundieron y no pudieron acceder de manera puntual a las dos primeras sesiones. En cuanto a actitudes negativas, se observó a dos alumnos apáticos a todo el proceso, de los que se tuvo información de que presentaban esa actitud en todas las asignaturas. Algunos estudiantes manifestaron a la docente que les parecía mejor el curso mixto, donde pueden tener interacción con su profesora de manera personal y a la vez abordar ejemplos claros de la temática del curso en la plataforma en línea, a diferencia de su curso en línea donde por la propia naturaleza, no tiene contacto cara a cara con el profesor.

Figura 2. Vista de una sesión

Desde la perspectiva e impresión de la docente, se presentó un mejor desempeño en el grupo que tuvo apoyo de plataforma en línea, a diferencia del grupo que no lo tuvo. El grupo mixto

236

Tlamati, Número Especial 3 CICOM 2014 manifestó un mayor avance y mejor nivel de comprensión de los temas.

De los datos resultantes, se derivan los siguientes estadísticos (Tabla 3 y 4).

En la práctica, el uso de la plataforma fue una herramienta de mucha utilidad, incluso en días que no hubo clases debido a que se impartían los lunes y coincidieron con los puentes del 3 de febrero y 17 marzo, lo cual restaba tiempo efectivo de sesiones.

Tabla 3. Tabla de estadísticos Estadísticos

En este caso, la puesta en marcha del curso en línea permitió incluso la aplicación del segundo examen parcial (17 de marzo) en línea, facilitando los procesos e impidiendo el atraso de los alumnos. Lo mismo sucedió con el receso por Semana Santa, del 14 al 18 de abril, tiempo en el cual los alumnos pudieron contar con instrucciones e información para la realización de su trabajo final.

Min.

G. Control G. Experimental

3 3

1er. Cuartil 7 8

Mediana 8 9

3er. Cuartil 9 9

Estadísticos G. Control G. Experimental

Por otra parte, respecto al manejo de la plataforma, la docente reportó que le pareció en general sencillo, práctico y dinámico, y que cuando fue necesario se apoyó en tutoriales para despejar algunas dudas.

Media 7.75 8.38

Desv. Stand. 1.555 1.469

Se observa que, aunque gráficamente ambos grupos presentan un comportamiento similar, en realidad el grupo experimental tiene un mayor promedio de calificaciones, así como una menor variabilidad que el grupo control.

La docente indicó que la mayor parte de las actividades se desarrollaron de manera colaborativa, y que el desempeño y promedio académico fue mayor en el grupo que utiliza aula virtual, además de que se generó mayor interacción y comunicación que con el grupo que no lo utilizó a pesar de que se trataba de una opción en línea.

Enseguida se presenta los histogramas de grupo control y de grupo experimental (Gráficas 1 y 2), así como los diagramas de caja y bigotes del grupo control y del grupo experimental (gráficas 3 y 4, respectivamente).

En síntesis, la docente reportó que los alumnos con apoyo de aula virtual tuvieron mayor confianza para la resolución de sus dudas y manifestaron mayor compromiso y responsabilidad.

2.6.2 Aspectos cuantitativos En cuanto a los resultados desde una perspectiva cuantitativa, se obtuvo que el grupo que no tuvo apoyo de aula virtual (control) obtuvo un rendimiento académico, reflejado en las calificaciones del curso, menor que el grupo con apoyo de aula virtual (experimental) (Tabla 1). Tabla 1. Tabla de calificación promedio de ambos grupos Grupo Experimental

7.75

8.37

Las calificaciones de cada uno de los grupos se ordenan en la siguiente tabla de contingencias. Gráfica 1. Histograma de grupo control

Tabla 2. Tabla de contingencias Calificación

3

5

6

7

8

9

G. Control

1

1

1

7

G. Experimental Total

1

2

1

7

4

2

2

2

8

1 1

1 1 1 3 2 4

1 0 3

Total

28

3

52

9 10

Tabla 4. Tabla de estadísticos

En el caso del grupo que tuvo acceso a su aula virtual, la docente consideró que los alumnos entregaron trabajos con mejor calidad y cumplían en mayor medida con los parámetros solicitados que los del grupo sin aula. Además, en caso de dudas, los alumnos recurrían a la plataforma para pedir información a través de los mensajes.

Grupo Control

Max

24

237

Tlamati, Número Especial 3 CICOM 2014 En la encuesta par alumnos del grupo experimental, el nivel promedio de satisfacción de los estudiantes con relación a la profesora, supera por 10.72 puntos porcentuales su nivel promedio de sastificación de respecto a la Sede. Mientras que en la encuesta para alumnos del grupo control, el nivel promedio de satisfacción de los estudiantes con relación a la profesora, es de 10.26 puntos porcentuales por debajo de su nivel promedio de satisfacción respecto a la Sede. Por otra parte, en el grupo experimental, 100% de los estudiantes manifestaron que recomendrían a la profesora, en contraste con el grupo control, en el que 82.14% la recomendarían. A efecto de determinar si las diferencias anteriormente detalladas entre los grupos son estadísticamente significativas, se aplica una prueba no paramétrica, específicamente la prueba considerando la corrección por continuidad de Yates, a la tabla de contingencias, para las siguientes hipótesis. Gráfica 2. Histograma de grupo experimental

No existe diferencia entre el grupo control y el grupo experimental. Existe diferencia entre el grupo control y el grupo experimental. Dados los resultados de la prueba, en que el p-valor (0.08846) es mayor a 0.05, no se rechaza la hipótesis alternativa, es decir, puede concluirse que existe una diferencia estadísticamente significativa entre el grupo experimental y el grupo.

3. CONCLUSIONES Si bien la institución cuenta con cursos mixtos y en línea, en los que emplea espacios virtuales con contenidos específicos para sus planes y programas de estudio, donde la mayor parte contienen recursos ya actividades organizadas de manera predeterminadas, que el docente normalmente no puede modificar, es momento de revisar la idoneidad del uso de aulas virtuales sin contenidos, en que los docentes puedan estructurar sus formatos de manera tal que tengan la posibilidad de construirlas según sus necesidades y las del grupo en particular.

Gráfica 3. Diagrama de grupo control

Se trata de espacios en línea que tienen posibilidades de incluir actividades y recursos, que se habilitarían vacías, a fin de que los profesores puedan diseñarlas y organizarlas según sus necesidades. Si bien este estudio inicial del uso de aula virtual en la modalidad presencial, tiene una revisión en dos grupos de una institución educativa, es claro, que ya los investigadores desde tiempo atrás han hecho énfasis en que este tipo de investigaciones se ven caracterizadas y en cierta medida limitadas por los propios contextos particulares en que se encuentran, esta situación también lleva a una fortaleza, al ser los resultados aplicados precisamente en la institución interesada. Al respecto, se encontró que los resultados son similares en cuanto a que la educación apoyada con TIC, y especialmente la que se apoya de opciones en línea como la mixta, no se ve desfavorecida una vez que se revisan los resultados, y por el contrario, aparece por arriba de la educación presencial y en línea. En esta experiencia de investigación, se encontró incluso que el

Gráfica 4. Diagrama de grupo experimental

238

Tlamati, Número Especial 3 CICOM 2014 resultado de aprendizaje y de percepción sí es estadísticamente significativo y atribuible al uso del aula virtual.

Esta iniciativa, habría de acompañarse de la capacitación docente en aspectos que van desde manejo de herramientas TIC para modalidades presenciales, mixtas y en línea; hasta los elementos a tomar en cuenta para el desarrollo de cursos; el uso de estrategias de aprendizaje y de evaluación adecuadas; así como aspectos relativos al planteamiento de las actividades pertinentes y la adquisición de las competencias necesarias para la asesoría en línea.

La UNID se ha desarrollado más en el aprendizaje en línea y mixto, así como en el presencial, sin embargo, esta experiencia de investigación puede resultar valiosa para ubicar la idoneidad de extender las aulas virtuales a su comunidad presencial. Si bien la apertura de aulas virtuales no es nueva en diversas instituciones, esta práctica tampoco se ha generalizado todavía.

Además de los posibles beneficios en el aprendizaje de los estudiantes y desempeño de los docentes, abrir la plataforma institucional podría ser un elemento que añada identidad, profesionalismo y unificación al trabajo que con la participación de todos los miembros de la UNID se está desarrollando.

Como elementos a añadir, es importante señalar que se requiere concientizar y capacitar tanto a docentes como a alumnos para utilizar de manera correcta las TIC y las herramientas en línea con fines académicos; así como conocer y aprovechar el potencial del aula virtual para aprovecharla al máximo potencial.

4. REFERENCIAS

En ese sentido, la modalidad educativa de tipo mixto o blended learning es a la vez una forma de buscar la disposición de alumnos y docentes hacia nuevas opciones y una puerta que de manera paulatina puede dar entrada “suave” al aprendizaje en línea, y “evitando la percepción de que esta modalidad pudiera ser de menor calidad que la educación presencial y brindando a los estudiantes los beneficios de contar con un grupo y atención personales.” (González, 2007)

[1] Claro, M., Sunkel, G., y Trucco, D. (2010). Impacto de las TIC en los aprendizajes de los estudiantes. Estado de Arte. CEPAL-ONU-UE-EUROPEAID. Chile. [2] García Aretio, L. (2014) Bases, mediaciones y futuro de la educación a distancia en la sociedad digital. Ed. Síntesis, Universidad Nacional de Educación a Distancia. Madrid.

Así, en este contexto se recomienda extender la apertura de aulas virtuales con el fin de que los docentes puedan crear ambientes de apoyo y extender las posibilidades de experiencias de aprendizaje y de revisión de contenidos, que por cuestiones de tiempo y de espacio se ven limitadas en las clases presenciales dentro del aula física.

[3] González-Videgaray, M. (2007). Evaluación de la reacción de alumnos y docentes en un modelo mixto de aprendizaje para Educación Superior. RELIEVE, v. 13, n. 1. http://www.uv.es/RELIEVE/v13n1/RELIEVEv13n1_4.htm. Consultado en julio de 2014.

239

Tlamati, Número Especial 3 CICOM 2014

Estimación de enfermedades del oído a partir de técnicas de minería de datos Jorge Enrique Rodríguez Rodríguez Universidad Distrital Francisco José de Caldas

[emailprotected] problema a solucionar, se aborda la minería predictiva, a través de la implementación de algoritmos de aprendizaje computacional supervisado.[1] El artículo se construye siguiendo una metodología para aplicar minería de datos, la cual plantea: problema, recopilación e integración de datos, limpieza de los datos con el fin de eliminar ruido, selección de un modelo de minería de datos, implementación de uno o más algoritmos que permita extraer conocimiento a partir del conjunto de datos, y finalmente, la conclusiones producto de la aplicación de la metodología.

RESUMEN Este artículo muestra el uso de algoritmos de minería de datos para la estimación de algunas enfermedades presentes en el oído del ser humano. Para la construcción del artículo se tomará como modelo la minería predictiva. Palabras claves minería de datos, descubrimiento de conocimiento, aprendizaje computacional, clasificación de datos. ABSTRACT In this paper I show an application of data mining in order to help doctors and experts in the identification of those diseases that today are found in many patients Colombians. For the construction of the paper is taken as predictive mining model. Keywords: data mining, knowledge discovery from data, machine learning, data classification.

2. PLANTEAMIENTO DEL PROBLEMA. Las entidades de salud realizan todo tipo de exámenes médicos a cientos de pacientes en todo el territorio nacional, pero en realidad no se dan a la tarea de analizarlos a profundidad para encontrar factores que pueden estar ocultos, ni se toman las medidas necesarias para disminuir las enfermedades que afectan a la población, contrario a lo que sucede en otros países que a la fecha llevan años de investigación en el tema. Por otra parte, la adquisición de conocimientos en el área médica es un aspecto poco desarrollado, ya que esta actividad es generalmente realizada por el médico de forma manual basado en su experiencia profesional. Se pretende que al momento de aplicar el procedimiento planteado en este artículo se determine con la minería de datos patrones de conocimiento que puedan servir como apoyo a la toma de decisiones en la determinación de enfermedades que atacan el oído.

1. INTRODUCCION En la actualidad el aporte de la tecnología es fundamental en todas las áreas, pero imprescindible en lo que respecta a la medicina, por esta razón es necesario la implementación de nuevas tecnologías para el manejo de la patología de los pacientes y para hacer más fácil la obtención de diagnósticos médicos más exactos en la determinación de diferentes enfermedades tanto existentes. Para un el manejo de los datos se recurre a las herramientas que brinda la minería de datos. Dado el El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

3. DETERMINAR UN CONJUNTO DE DATOS OBJETIVO Como se pretende aplicar una técnica para la determinación de enfermedades correspondientes o que tengan alguna relación con el oído, se realizó una búsqueda en una tabla de datos que contiene 1500 registros (pacientes) obtenidos desde una base de datos en la cual se guarda la información correspondientes a exámenes de audiología realizados a algunos pacientes colombianos.

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

240

Tlamati, Número Especial 3 CICOM 2014

Tabla 1. Muestra de una parte de atributos del conjunto de datos

4. RECOPILACIÓN E INTEGRACIÓN Se procede a extraer la información a procesar en una tabla de Excel en formato .CSV, el cual es transformado a formato para posteriormente ser usado en WEKA (Waikato Enviroment Knowledge Analisys). [2]

Valores faltantes: los valores faltantes se presentaron en el conjunto de datos y fueron tratados por medio del algoritmo EM (Esperanza-Maximización), el cual brinda la posibilidad de rellenar estos datos de manera que no se presenten alteraciones en los registros y esto contribuya a poder realizar un buen análisis de los datos. En los atributos cual_proteccion, otros_ruidos_extralaboral, otros_antecedentes_otologicos y cual_oido, se realizó el relleno del valor faltante “NINGUNO”, debido a que habían registros nulos en muchos de los datos. De igual forma en el atributo horas_exposicion, se rellenó el valor faltante “0 HORAS” como se observa en la Tabla 2 y Tabla 3.

5. REDUCCION Y PROTECCION DE LOS DATOS Durante el proceso de reducción y protección de los datos, se aplicó algunas técnicas para el tratamiento eficaz de los datos, ya que se desea organizar, controlar y reducir lo

más conveniente posible para realizar un buen análisis de los datos. [3] Los métodos utilizados fueron los siguientes:

Tabla 2. Valores faltantes

Validación de datos: en este proceso se realizó la búsqueda y corrección dentro de los registros, datos con errores de ortografía, con espacios al final y campos similares que se podían agrupar. [4] Datos anómalos: el tratamiento que se realizó fue detectarlos a través de un procedimiento intuitivo y señalarlos para decidir más adelante si se incluyen o no en el análisis. Entre estos datos se encontró una gran cantidad de datos anómalos. Por ejemplo en el caso del atributo ruidos_extralaboral, el cual se observa una parte de los registros en la Tabla 1, donde se guarda los datos de que ruidos adicionales podrían afectar la audición en el paciente, se encuentran datos anómalos ya que hay registros de respuestas de los pacientes que no son muy coherentes a la hora de analizar los datos. Esta clase de situaciones también se presentan en los atributos otros antecedentes, datos audiológicos, recomendaciones y observaciones. 241

Tlamati, Número Especial 3 CICOM 2014

diferencia de otros algoritmos que solo permiten tipos binarios.[6]

Tabla 3. Relleno de valores

8. INTERPRETACIÓN DE LOS RESULTADOS El algoritmo J48 en WEKA, se parametrizó, con las siguientes opciones: Percentage split: 70% (realiza un entrenamiento con el 70% del conjunto de datos) Preserver order for % Split: el cual conserva el orden de los registros durante las diferentes pruebas de entrenamiento del conjunto de datos. El atributo predictivo configurado es dx_audiologico. A partir de las anteriores configuraciones, los resultados son los siguientes: Árbol podado AUDICION NORMAL BILATERAL (1500.0/228.0): es el registro principal que más veces se repite después de haber sido podado por el algoritmo. Evaluación sobre la distribución de prueba CorrectlyClassifiedInstances 390, 86.6%: estos son los casos clasificados correctamente y el porcentaje de los mismos sobre el total de los registros de prueba. IncorrectlyClassifiedInstances 60 13.4%: estos son los casos clasificados incorrectamente y el porcentaje de los mismos sobre el total de los registros de prueba. Mean absolute error 0.1323: representa la media del error absoluto del total de los registros de prueba. Root mean squared error 0.2469: representala raíz cuadrada del error. Total Number of Instances 450: representa el total de instancias evaluadas para realizar las pruebas, equivalente al 30% de los registros totales del conjunto de datos.

Selección de atributos: para la tarea de la selección de atributos, se aplicó la técnica de árboles de decisión, el cual brinda un análisis sobre la relevancia. A cada atributo se le asigna un peso el cual da las pautas para seleccionar los atributos finales para realizar el proceso de minería de datos. Los atributos que fueron eliminados, son: consecutivo, con_historia_clinica, fecha, cual_sustancia, son_tipo_evaluacion, recomendaciones, ocupación, con_tercero, y observaciones; estos atributos no son relevantes para determinar la clase. Finalmente los atributos seleccionados, son: horas_exposicion, cual_proteccion, otros_ruidosextralaboral, otitis, otros_antecedentes_otologicos, acufenos, hipertensión, y cual_oido. 6. ELEGIR LA TÉCNICA DE EXPLORACIÓN DE LOS DATOS El objetivo es realizar una predicción que permita estimar una enfermedad, y para ello se utilizará: Aprendizaje computacional • Aprendizaje supervisado, debido a que corresponde a una técnica para deducir una función a partir de datos de entrenamiento. Para este problema se utilizará un 70% de datos de entrenamiento, con la finalidad de predecir la etiqueta de clase dx_audiologico que se encuentra en la clasificación del conjunto de datos de entrada. • Arboles de decisión, se pretende crear un modelo de predicción a partir del conjunto de datos, generando diagramas que sirvan para representar, categorizar y obtener una correcta interpretación de los datos; se ingresan los datos en el árbol los cuales representan una situación, el árbol a partir de ello devuelve una respuesta que finalmente es una decisión tomada. [5]

Tabla 4. Clases detalladas con exactitud

Tabla 5.Matriz de confusion

9.. ANALISIS DE PRUEBAS Y RESULTADOS Durante las pruebas realizadas en el proceso de las metodologías de la minería de datos las cuales se hicieron con variaciones en el conjunto de datos para observar el comportamiento de los resultados obtenidos, se puede analizar que los informes arrojados por WEKA, para el entrenamiento de los datos con diferentes parametrizaciones de los algoritmos, no tuvieron cambios muy significativos respecto al resultado final que se eligió como el mejor. Los fragmentos de datos que se tomaron para el entrenamiento fueron en principio diferentes para cada

7. ELEGIR ALGORITMO DE EXPLOTACIÓN DE LOS DATOS La explotación de los datos se realiza a través del algoritmo C4.5 (el cual es equivalente a J48 en WEKA), ya que este permite configurar como atributo predictivo que contenga variables que sean de tipo nominal a 242

Tlamati, Número Especial 3 CICOM 2014

prueba, pero de esta manera no es posible determinar la efectividad de los algoritmos aplicados, por tal motivo se realizó la configuración para que el 70% de los datos que se tomaran para entrenamiento y el 30% restante de prueba, fueran siempre los mismos para medir más acertadamente los resultados obtenidos por los algoritmos utilizados. Otro aspecto importante es que no se pudo llegar a una mejor clasificación de los datos por medio de ninguno de los algoritmos con los cuales se realizaron las pruebas, la efectividad más alta fue del 86.6% clasificados correctamente, lo ideal siempre es estar muy cerca de alcanzar el 100% de clasificados correctamente, pero en este caso fue difícil alcanzar más porcentaje debido a ciertos factores que inciden en los datos como por ejemplo, el ruido que probablemente no fue eliminado por completo.

- Las herramientas de minería de datos utilizadas en este artículo son útiles para el apoyo a médicos y expertos en la toma de decisiones y determinación de enfermedades del oído en pacientes, particularmente en Colombia. 11. TRABAJOS FUTUROS Aplicar otras técnicas o modelos como por ejemplo redes neuronales y el algoritmo backpropagation (retropopagación), para el procesamiento y análisis de los datos. 12. REFERENCIAS [1] Minería de datos, Teleprocesos y Sistemas Distribuidos, Licenciatura en Sistemas de información. FACENA-UNNE, octubre 2003. [2]Hernández Orallo José, Ramírez César Ferri. PRÁCTICA DE MINERIA DE DATOS, Introducción al WEKA;Curso de Doctorado Extracción Automática de Conocimientoen Bases de Datos e Ingeniería del Software Marzo 2006.

10. CONCLUSIONES - La extracción de datos en la minería de datos debe hacerse con grandes volúmenes de datos para realizar un proceso exitoso y poder encontrar atributos ocultos de gran importancia, pero ello implica un mayor esfuerzo en el manejo de los datos y su procesamiento. - Utilizar el proceso KDD para el procesamiento de los datos es primordial para un buen manejo de los mismos, debido a que los pasos utilizados permiten que los datos puedan ser correctamente tratados para luego aplicar las técnicas y algoritmos correspondientes. - Al aplicar el algoritmo C4.5 para el análisis y explotación, se nota una mejor clasificación de los datos que al aplicar otros algoritmos como por ejemplo el ID3 por lo tanto se considera como una buena elección.

[3] Rodríguez, Jorge Enrique. Software para clasificación/predicción de datos, Revista TECNURA, Universidad Distrital. [4] Hernández G, Claudia L. Rodríguez, Jorge Enrique. Preprocesamiento de datos estructurados, Abril 2008. [5] Vallejos, Sofia J. Minería de Datos, Licenciatura en Sistemas de Información Corrientes – Argentina, 2006. [6] Ocaranza Olaya, Quiroz Mónica. Deserción:Huellas deunainterrogante, Universidad de Talca. Chile, septiembre 2005.

243

Tlamati, Número Especial 3 CICOM 2014

Tratamiento de los datos para el pronóstico de tráfico en redes Wi-Fi, mediante series de tiempo. Yaqueline Garzón Rodríguez

Luis Felipe Wanumen Silva

Universidad Distrital Francisco José de Caldas Bogotá, Colombia

Universidad Distrital Francisco José de Caldas Bogotá, Colombia

[emailprotected]

[emailprotected]

considerar diferentes variables que inciden en el pronóstico del tráfico que se encuentran presentes en esta clase de redes.

RESUMEN El poder realizar un pronóstico acertado del tráfico en las redes de comunicaciones, es de gran importancia en la actualidad, ya que influye en la toma de decisiones tan importantes tales como el dimensionamiento y predestinación de la red.

Por lo anterior se selecciona y delimitar como estudio de caso para este trabajo, una red WI-FI, que por el comportamiento del tráfico exige el desarrollo de un modelo con series de tiempo de estadística avanzada, que permita observar de manera integrada la red y brindar así una herramienta que facilite el monitoreo y manejo de la misma.[3]

Este articulo tiene como objetivo central informar al lector sobre la exigencia en el tratamiento de los datos que requiere el pronóstico mediante series de tiempo multivariadas, ya que permiten estimar pronósticos futuros de tráfico en las Redes de Comunicaciones modernas, y se convierte en una herramienta fundamental para la predicción del tráfico, y que para ser más acertada implica

Una vez de realizado el tratamiento de los datos éstos pueden ser insumo para desarrollar modelos multivariados para estimar pronósticos futuros de tráfico en redes de datos Wi-Fi que por su naturaleza requieren de estadística avanzada como son las diferentes series de tiempo multivariadas ( VAR, VARMA, VEC, entre otras).

El permiso para hacer copias digitales o impresas en parte o en la totalidad de este artículo, se otorga sin tener que cubrir una contribución financiera, siempre y cuando sea para uso personal o en el aula, las copias no se realicen o se distribuyan con fines de lucro o ventaja comercial y que las copias conserven este aviso y los datos de la cita completa en la primera página. Para otro tipo de copias, o volver a publicar el artículo, para almacenarlos en servidores o redistribuirlo en listas de correo, se requiere una autorización previa de los autores y/o una posible cuota financiera.

Palabras Clave Tratamiento de datos, pronóstico, tráfico, serie de tiempo, red Wi-Fi, multivariadas.

ABSTRACT

4to. Congreso Internacional de Computación CICOM 2014, Octubre 2-4, 2014, Ciudad y Puerto de Acapulco, Guerrero, México. Copyright 2014 Universidad Autónoma de Guerrero

Being able to make an accurate forecast of traffic in communication networks is of great importance today, as it influences in making important decisions such as predestination and the dimensioning of the network. 244

Tlamati, Número Especial 3 CICOM 2014 This article's main objective is to inform the reader about the need to treat the data as required by the prediction of multivariate time series, and for estimating future traffic forecasts in modern communications networks, and becomes an essential tool for traffic prediction, and that to be successful means considering different variables affecting the traffic forecasts that are present in this type of networks.

Medias Móviles (ARIMA) y Vectores Autorregresivos (VAR) respectivamente. Para realizar el pronóstico de tráfico en las redes de comunicación modernas se selecciona y delimita el tipo de red y se establece una metodología para la captura y procesamiento de datos. Para este trabajo el estudio de caso, seleccionado fue una red WI-FI, en razón a que esta tecnología es la que actualmente tiene mayor auge en el ámbito de las redes de datos debido a todas sus características, igualmente debido a que esta tecnología es relativamente nueva, no existen muchos estudios acerca del comportamiento de su tráfico [7].

Therefore select and define as a case study for this paper, a WI-FI network, that traffic behavior requires the development of a time series model with advanced statistics, to enable observation of the network and integrated manner thus providing a tool to facilitate the monitoring and management of the same. [3] Once completed the processing of these data can be input to develop multivariate models to estimate future traffic forecasts networks Wi-Fi data by its nature require advanced statistics such as the different multivariate time series (VAR, VARMA , VEC, among others).

2. MARCO REFERENCIAL 2.1 Correlación

Keywords:

Es una medida de la asociación entre dos variables. Es decir, indica si el valor de una variable cambia de forma fiable en respuesta a los cambios en el valor de la otra variable. El coeficiente de correlación puede variar desde 1 hasta 1. Una correlación de -1 indica que el valor de una variable disminuye el valor de los aumentos de otra variable. Una correlación de 1 indica que cuando el valor de una variable aumenta, aumenta la otra variable [6].

Data processing, forecast, traffic, time series, Wi-Fi, multivariate.

1. INTRODUCCION El poder realizar un pronóstico acertado del tráfico en las redes de comunicaciones, es de gran importancia en la actualidad, ya que influye en la toma de decisiones tan importantes tales como el diseño y dedicación de la red. Es por esto que el modelamiento de tráfico se ha convertido en una extensa área de investigación en la que el objetivo es desarrollar modelos que predigan el impacto de la carga impuesta por las diferentes aplicaciones sobre los recursos de la red [1]

2.2 Serie de Tiempo Es una realización de un proceso estocástico. Una serie de tiempo es una secuencia de observaciones ordenadas en el tiempo (o espacio). El tiempo / espacio es la variable independiente.

En primera medida es requerido un tratamiento juicioso de los datos, el cual puede ser más exigente en el momento que se hace necesario considerar múltiples variables fuera de las tradicionales voz y datos, según [2] en su tercera recomendación sugiere el estudio de tres variables que pueden llegar a incidir significativamente en el pronóstico de tráfico como lo son: el tiempo, número de usuarios y aplicación.

En el contexto de Series de Tiempo, pronosticar significa predecir valores futuros de una variable aleatoria basándose en el estudio de la estructura definida por las observaciones pasadas de variables que explican su variación, suponiendo que la estructura del pasado se conserva en el futuro[10]; con tales datos históricos podemos identificar a nivel general el comportamiento y cualquier tendencia de aumento o disminución a través del tiempo, o por ejemplo realizando un análisis más detallado identificar comportamientos estacionales relacionados directamente con factores externos.

Mediante este estudio de caso se pretende brindar una experiencia en el tratamiento de los datos requerido para la obtención de una base de datos insumo para el modelamiento de una serie de tiempo, y en segunda medida evidenciar la estadística aplicada al modelamiento de una serie de tiempo univariada y multivariada para este caso específico modelos Autorregresivos Integrados de

Es importante anotar que existen factores o eventos que influyen en la calidad de un pronóstico. Estos factores pueden ser internos o controlables y externos o incontrolables. 245

Tlamati, Número Especial 3 CICOM 2014 Factores externos o incontrolables son decisiones externas a la empresa o fenómenos naturales que afectan variables aleatorias de interés; por ejemplo: el incremento en el impuesto sobre el valor agregado (IVA) decretado por el gobierno sobre un artículo, altera los pronósticos de la demanda de este artículo; o el fenómeno de El Niño afecta los pronósticos del volumen de agua de un embalse, situado en la región de influencia del fenómeno.

Donde, y

Factores internos o controlables son aquellas decisiones o políticas de la compañía que afectan el sistema de pronósticos; por ejemplo, la ampliación en una línea de producción y/o cambios de en la publicidad y el mercado de un producto alteran el producto de su demanda.

Parámetros que acompañan la parte autorregresiva y de promedio móvil, respectivamente

(B)

operador de rezago

{Zt}

proceso estacionario

{ at}

proceso de ruido blanco

La ecuación 1 presenta la forma genérica del modelo ARMA, donde el lado izquierdo de la ecuación hace referencia a la parte autorregresiva y el lado derecho, a la parte de promedio móvil.

El éxito de la planeación depende de estos factores o eventos. Sin embargo, observe que los factores externos sólo pueden pronosticarse y tenerse en cuenta a la hora de tomar decisiones, mientras que los internos además de pronosticarse pueden controlarse mediante decisiones acordes con la política de la empresa y con los factores externos que actúan sobre ellos.

Ecuación No. 2 Donde,

La planeación a futuro es un aspecto esencial en la administración de cualquier empresa; ya que su éxito a la larga se relaciona mucho con lo bien que la administración puede anticipar el futuro y desarrollar las estrategias adecuadas. [1].

Término de tendencia determinística (1−B)dZt

Serie diferenciada de orden d

La ecuación 2 muestra la forma general del modelo ARIMA que, a diferencia de la ecuación anterior, presenta el término de tendencia determinística (equivalente a la media del proceso cuando la serie es estacionaria; se suele omitir a menos que sea realmente necesario) y la serie diferenciada de acuerdo con el orden de integración de la misma.

2.2.1 Modelos ARIMA Un tipo de modelos de series de tiempo univariados pueden ser de la forma ARMA o ARIMA. Estos modelos asumen que el comportamiento del proceso estocástico {Zt} se puede explicar a través de sus valores pasados y de una suma ponderada de errores pasados y presentes. Un modelo de la forma ARMA es aquel donde las raíces de la ecuación característica, definida por el factor autorregresivo del modelo, se encuentran dentro del círculo unitario, es decir que la serie es estacionaria. Si una ó más raíces características son mayores o iguales a la unidad, se dice que la secuencia es un proceso integrado y se le conoce como un modelo ARIMA.

El método de Box-Jenkins (1976)1 permite identificar y estimar modelos de series de tiempo univariados: modelos que además sirvan para pronosticar. El gráfico de la serie en el tiempo, las funciones de autocorrelación (ACF) y autocorrelación parcial (PACF) sirven como potentes herramientas en la etapa de identificación de modelos bajo este acercamiento. En la etapa de estimación, cada uno de los modelos tentativos es ajustado y los coeficientes son examinados. En este punto los modelos estimados son comparados con base en los tres criterios pilar de esta técnica, a saber: la parsimonia, la estacionariedad e invertibilidad y la bondad de ajuste.

Ecuación No. 1

!

246

"" #

%$ Tlamati, Número Especial 3 CICOM 2014 Para el caso específico desarrollo de un modelo se decidió utilizar la serie de tiempo multivariante específicamente la de Vectores Autoregresivos VAR.

vector columna que contiene las variables endógenas contemporáneas vector de interceptos

2.2.2 Vectores Autorregresivos VAR2

matriz de coeficientes que acompañan las variables rezagadas

Un modelo VAR es un sistema de ecuaciones conformado por un número predeterminado de variables que son explicadas por sus propios rezagos, por los rezagos de las demás variables que hacen parte del sistema, en algunos casos por variables determinísticas (constante, tendencia y variables dummy) y por los choques o innovaciones aleatorias. Usar esta metodología tiene la ventaja de no imponer una dirección de causalidad a priori entre las variables; todas son variables endógenas y por lo tanto, tratadas simétricamente3.

vector columna con las variables endógenas, rezagadas para i = 1,…, k. vector de innovaciones, se suponen no serialmente correlacionadas

El problema con este modelo es que las matrices son desconocidas y las variables tienen efectos contemporáneos entre ellas. Debido a la retroalimentación inherente en el sistema, las ecuaciones dentro del VAR estructural no pueden ser estimadas directamente. La razón es que las variables estás correlacionadas con todos los términos de error dentro del sistema y las técnicas de estimación estándar requieren que los regresores sean incorrelacionados con los términos de error.

Este sistema permite capturar mejor los comovimientos de las variables y la dinámica de sus interrelaciones de corto plazo, lo cual es imposible de detectar con modelos univariados de la forma ARIMA, por ejemplo. El VAR es también una técnica poderosa que permite generar pronósticos confiables en el corto plazo. Sin embargo, tiene la desventaja de que por cada rezago incluido se pierden kxp grados de libertad, donde k es el número de rezagos y p es el número de variables dentro del sistema VAR, debilitando los resultados de las pruebas econométricas y por ende la confiabilidad de los resultados y del sistema. El VAR puede representarse de la forma estructural o sistema primitivo, como esta descrito en la ecuación No. 3:

No obstante, es posible transformar el modelo anterior en uno de forma reducida o VAR estándar, al premultiplicar por B-1, facilitando la estimación de los parámetros. Este sistema se puede representar como:

Ecuación No. 4

Ecuación No. 3 Donde, matriz de coeficientes que acompañan las variables de efectos contemporáneos &

' /

( ) * '+,,((( -

. 0/

2 /

* :

-

6/

/

3

)

6

/

8 9: !

,# .

&11.

)

5

,

Dado que no hay efectos contemporáneos entre las variables y que cada ecuación No. 4 reúne un conjunto común de regresores, se pueden utilizar regresiones de mínimos cuadrados ordinarios para propósitos de estimación. Al usar este tipo de regresiones para efectos de la inferencia estadística, se requiere que los residuos sean ruido blanco y sigan una distribución normal. Por último, se debe tener en cuenta que la construcción de un sistema de este tipo requiere que las variables sean estacionarias,

"" ##;

4 3

/ )

4 7

'' '< / ; ' =>

247

Tlamati, Número Especial 3 CICOM 2014 pues la presencia de raíz unitaria puede dar origen a regresiones espurias, si el VAR es estimado en niveles4.

2.2.3. Técnicas de Autorregresivos VAR

los

g.

Vectores

3. METODOLOGÍA

La técnica de los VAR’s ha evolucionado bastante tal que hoy en día en el trabajo empírico podemos encontrar los siguientes planteamientos alternativos 5: a.

c.

d.

e.

f.

=

) /

/ 3

/

)

!9 >

9 #.1> /

?/ 3

' 5

9

;

5

1.

( ) * '+,,((( / 3

)

La captura se realizó en el mes de mayo de 2012,por un lapso de cuatro días de martes a viernes en la franja horaria de 6 am a 10 pm en las instalaciones de la Facultad Tecnológica, más específicamente en uno de los cinco Access Point (AP) ubicados en la sede, y que conforman una red de datos inalámbrica originada por una Unidad Controladora (UC) ubicada en el bloque 13 segundo piso, que conecta por fibra óptica un switch CISCO 29 ubicado en el bloque 4 piso 2, (hasta este punto la conexión se realiza por fibra óptica), este switch a su vez conecta otro switch CISCO 29 mediante cable UTP ubicado en el bloque 4 piso 3, en este piso existen dos salas de software en configuración estrella esta configuración se presenta en la Figura 1.

8 4

, )

y

Para realizar la captura de los datos se utilizó el analizador de redes wireshark ya que es una herramienta muy útil para el control y manejo de una red de datos, es un software libre y permite analizar una red de datos inalámbrica (WIFI); adicionalmente wireshark sirve como una IP fuente al destino cuando se descarga información y permite capturar todo el tráfico entrante y saliente, a través de la tarjeta de red del computador. Actualmente existen muchos Sniffer gratuitos, sin embargo, se decidió utilizar WireShark en razón a que presenta la información requerida por el proyecto, y además, permite exportarla a una hoja de cálculo como Excel para organizarla adecuadamente.

6 )0

)

3.1 Obtención de los Datos Construcción de la Series de Tiempo

##;>

' /

Contempla el procedimiento empleado para la obtención de la base de datos con múltiples variables, por lo cual se relaciona en primer lugar el tratamiento y manejo de los datos, que hace referencia a la obtención de la serie de tiempo y en segundo lugar la estadística aplicada al modelamiento de la serie con las series de tiempo ARIMA y VAR

VAR’s de forma reducida: Expresa cada variable como una función lineal de sus valores pasados, de los valores pasados de las otras variables del modelo y de los términos de errores no correlacionados. VAR’s recursivos: La variable del lado izquierdo de la primera ecuación depende solamente de los valores rezagados de todas las variables que se incluyen en el VAR, en tanto que la variable correspondiente a la segunda ecuación depende de los rezagos del VAR y del valor contemporáneo de la variable de la primera ecuación. También, la variable del lado izquierdo de la tercera ecuación depende de los rezagos de todas las variables y de los valores contemporáneos de la primera y segunda variables. VAR’s estructurales: Utilizan la teoría económica para ordenar la relación contemporánea entre las variables. VAR’s parciales (PVAR): No todas las variables tienen la misma especificación, puede haber variables con una representación estrictamente autorregresiva. VAR’s bayesianos (BVAR): Incorporan información a priori sobre los valores de los parámetros (sobreparametrizan el sistema). VAR’scointegrados (VEC): Son una generalización de los procesos de raíz unitaria en el contexto multivariado y expresan el modelo como un sistema de corrección de errores.

b.

VAR’s con medias móviles (VARMA): Incorporan modelos de promedio móvil para los errores a fin de reducir los órdenes autorregresivos.

,&11$),&$#,$ *

&1 2

248

Tlamati, Número Especial 3 CICOM 2014 momento en que se realiza el tratamiento de los datos y obtención de los valores de significancia, se evidencia un problema similar a la clasificación realizada previamente ya que se genera gran dispersión en los datos y se hace necesario no tener presente dentro del análisis de datos diferentes protocolos de la capa de aplicación con un porcentaje de tráfico importante. Por todo lo anterior se hace necesario clasificar todos los protocolos encontrados en la captura de tráfico; para su identificación se utilizó el modelo TCP/IP8. Lo anterior con el fin de identificar los protocolos que pertenecen a la capa de aplicación y discriminarlos. Una vez identificados los protocolos de aplicación, se hace necesario establecer un delta de tiempo o “time step” para obtener la serie de tiempo requerida para el pronóstico de datos, inicialmente se establece un delta de tiempo para la discretización de los datos de una hora, pero se identifica que es un intervalo muy amplio y se puede perder información que puede ser relevante para el desarrollo del modelo multivariado, de acuerdo a otros estudios tales como el [4] se decide establecer para la discretización de los datos en la serie de tiempo un delta de tiempo de dos (2) minutos reorganizando así la información capturada, para este periodo de tiempo para el cual toda la información contenida en él se transforma en un solo dato de tráfico.

Figura 1. Arquitectura de la red Wi-Fi en la cual se realizó la captura. Fuente Elaboración propia Para realizar la captura de los datos no se aplico ninguna clase de filtro, por lo cual se hace necesario clasificar los protocolos capturados para cada día; esta clasificación se hace necesaria para obtener la serie de tiempo a emplear en el desarrollo del modelo multivariado. Una vez se realizó la captura de los datos de tráfico se procedió a exportarlos y organizarlos en una hoja de Excel. El Software WireShark captura los datos de tráfico en tiempo real, de allí también se puede ver que en promedio el WireShark captura el tráfico en bytes cada diez milésimas de segundo (10 ms), por ende el tráfico total capturado en las 16 horas para cada día fue un numero realmente alto; razón por la cual se hace necesario realizar un análisis y tratamiento de los datos. Inicialmente se realiza una clasificación de los protocolos tomando como referencia aquellos que representen un porcentaje mayor en la captura realizada para cada uno de los días, lo anterior con el fin de eliminar los protocolos menos significativos6: pero esta clasificación presenta un inconveniente en el momento de analizar el tráfico, ya que muchos protocolos de la capa de aplicación, los cuales son considerados en la actualidad como los más importantes al momento de realizar la predicción de tráfico en redes contemporáneas debían ser considerados como menos significativos.

Pero el asumir este tiempo para la discretización de los datos presenta un problema ya que se hace necesario manejar una cantidad considerable de datos, manejo para el cual la herramienta Excel presenta inconvenientes, por lo anterior se hace necesario buscar una nueva herramienta, para el procesamiento de los datos. Se realiza una revisión general de herramientas y se contemplan Access, y MYSQL, debido a la capacidad el manejo de los datos que tiene cada una de ellas. Finalmente se decide trabajar con MYSQL, tomando como criterios de selección la gran capacidad y manejo de datos, mejores tiempos en el procesamiento de los datos y funcionalidad permitiendo generar consultas robustas ya sean sencillas o complejas. Adicionalmente porque se programa en PHP9 y se facilita el manejo y dominio al autor. El programa se realizó en PHP y la base de datos se manejó en MYSQL, se cargaron todos los datos de Excel a MYSQL se verifico que la integridad de los datos estuviera bien un ejemplo de esto es que tengan la misma estructura en fechas en cuanto a su formato. Se realizaron diferentes consultas y conteos necesarios para arrojar los datos en el orden que se requería; es decir la obtención de la información referente al tráfico, aplicaciones y usuarios en

Otra opción contemplada fue la de realizar un análisis preliminar a los datos originales anova7, pero en el % '

56

6 /

$

@A 3

5 ) ' ' ) )

&1 3 0

'

6/ -

5 /

3

'

56 /

/

3

)

-

0/

)0

0/ 0/

6

3 3

' 3 Y \s,c\ donde X es un itemsets, Y es un ítem no incluido en X, s representa la relevancia de la regla y c su fiabilidad.

Al final de la iteración, cada procesador Pi calcula usando el local. Nuevamente, los son disjuntos y su unión es Lk.

4.

Los procesadores intercambian para que cada procesador tenga el Lk completo para la generación del Ck+1 de la siguiente iteración. Este paso requiere que los procesadores se sincronicen. Habiendo obtenido el Lk cada procesador puede decidir independiente e idénticamente si terminar o continuar a la próxima iteración. [15]

La relevancia y la fiabilidad de las reglas de asociación se presentan como fracciones La fiabilidad de la regla de asociación X=>Y es la proporción de transacciones con X que contienen también a Y mientras que la relevancia de la regla es la proporción de transacciones de la base de datos que contienen X Y. Los itemsets candidatos se generan y su relevancia obtiene conforme se recorre la base de datos utilizando un contador. Hay que destacar que los itemsets se almacenan ordenados lexicográficamente. [14]

Algoritmo Candidate Distribution. El algoritmo de distribución de candidatos particiona los datos y los candidatos de tal forma que cada procesador puede proceder independientemente. En algún paso l, donde l es determinado heurísticamente, este algoritmo divide los itemsets frecuentes del conjunto Ll-1 entre los procesadores de tal forma que un procesador Pi puede generar un único (m l) independiente de los otros procesadores ( = , i j).

Algoritmo Count Distribution. Este algoritmo utiliza el principio simple de permitir “cálculos redundantes en paralelo para disminuir la comunicación”. La primera iteración es especial para todas las demás iteraciones.

Al mismo tiempo, los datos son particionados tal que cada procesador puede contar los candidatos en independiente de los demás procesadores.

k>1, el algoritmo trabaja como sigue: 1.

Cada procesador pi genera todo CK, usando todos los itemsets frecuetnes LK-1 creados al final de la iteración k-1.

2.

El procesador Pi hace una iteración sobre su partición Di y cuenta el soporte local para los candidatos en CK.

3.

El procesador Pi intercambia los conteos locales de CK con todos los demás procesadores para crear los conteos globales de CK. Los procesadores están forzados a sincronizar.

4.

Cada procesador Pi calcula LK a partir de CK.

5.

Cada procesador Pi decide independientemente si terminar o pasar a la siguiente iteración. Esta decisión será idéntica en todos los procesadores ya que estos tienen idéntico LK. En La primera iteración, cada procesador Pi genera dinámicamente sus candidatos locales C1i, en dependencia de los items que se encuentren presentes en la partición local Di. Por consiguiente los candidatos contados por diferentes procesadores pueden no ser idénticos y debe tenerse mucho cuidado en el intercambio de los conteos locales para determinar el C1 global.

Algoritmo Spade (Sequential Pattern Discovery using Equivalence classes). A diferencia que los algoritmos basados en Apriori, no realiza múltiples pases sobre la base de datos, y puede minar todas las secuencias frecuentes en solo tres pasos. Esto se debe a la incorporación de nuevas técnicas y conceptos entre las que se encuentran las siguientes:

Algoritmo Data Distribution. Este algoritmo se describe de la siguiente forma: 1.

-

Usa una lista de identificadores (id-list) con formato vertical, donde se asocia a cada secuencia con una lista de identificadores (SID), junto con el identificador de evento temporal (TID). Sobre esta lista pueden ser enumeradas todas las secuencias frecuentes mediante simples uniones temporales.

-

Utiliza un enfoque de retículo o lattice, para descomponer el espacio de búsqueda original en clases pequeñas (sub-lattice), que pueden ser procesadas independientemente en la memoria principal. [16]

-

Propone dos estrategias de búsqueda diferentes para enumerar las secuencias frecuentes dentro de cada clase: Búsqueda en amplitud y búsqueda en profundidad.

Para calcular todas las 1-secuencias frecuentes en una base de datos con formato vertical basta con realizar un simple pase por la base de datos, e incrementar el soporte para cada nuevo sid encontrado.

El mismo procedimiento que en Count Distribution. Iteración K>1

El SPADE propone dos estrategias de búsqueda eficiente para enumerar las secuencias frecuentes dentro de cada clase: La búsqueda en amplitud (BFS por sus siglas en inglés) y búsqueda en profundidad (DFS). Ambos métodos están basados sobre la descomposición recursiva de cada clase padre en pequeñas clases.

El procesador Pi genera CK a partir de LK-1. Asumiendo que la cantidad de procesadores es N, cada procesador se queda con la n-enésima parte de los y esto itemsets formando el subconjunto candidato 373

Tlamati, Número Especial 3 CICOM 2014 En BSF el retículo de clases equivalentes es explorado recursivamente de manera ascendente, procesándose cada clase de un nivel antes de pasar al próximo. Por ejemplo para generar las 3-secuencias frecuentes, todas las 2-secuencias frecuentes tienen que haber sido procesadas. En DFS se procesan todas las clases hijas equivalentes a lo largo de una rama del retículo antes de pasar a la siguiente rama. Aunque BSF necesita más memoria principal, para almacenar todas las 2-secuencias frecuentes, esta estrategia de búsqueda aporta más información para podar las ksecuencias candidatas. [17]

Operación de División (divide): Se basan en la división del problema de entrada en cuantos subproblemas de menor tamaño, independientes entre sí y del mismo tipo que el de partida. Operación combinación (combine): Una vez resueltos los subproblemas se hace necesario la utilización de una nueva función que recibiendo como entrada los subproblemas resueltos devuelva el problema original resuelto. Con esta operación se debe aprovechar la optimiladidad de las soluciones R1 de los subproblemas P1 en general.

Luego de realizar una investigación detallada de cada uno de los algoritmos se identificó que únicamente los algoritmos Apriori y Fp-Growth están implementados, estos dos algoritmos se utilizaron para realizar pruebas de tiempo de ejecución, eficiencia y espacio de memoria, con un determinado conjunto de datos, para poder determinar cuál es el que mejor se desempeña en el procesamiento de datos.

Función de Parada (small): esta función consiste en que deberá discernir sobre la conveniencia no de la división de un problema, en caso negativo debe encontrar una solución al problema por otro tipo de método solve que no necesita descomposición ya que este puede estar compuesto por un solo elemento.

5.1 Recolección de Datos -

La recolección de los datos se hizo a partir de los conocimientos previos de la definición de las reglas de asociación y de algoritmos paralelos, teniendo en cuenta las características de los mismos con el fin de determinar el más apropiado para el desarrollo de la investigación realizada. El análisis y la clasificación de los algoritmos se realizaron en base a las técnicas de paralelización las cuales se describen a continuación: -

Este procedimiento de ramificación y acotación consiste en la repetición sucesiva de generación y comprobación de problemas parciales con el fin de encontrar una solución l problema de partida examinando la menor parte posible del árbol de búsqueda. [18][20]

Divide y Vencerás. Es una técnica importante y que más se ha aplicado en el diseño de algoritmos eficientes, esta técnica consiste en dividir el problema en subproblemas más pequeños del mismo tipo, con el fin de resolver estos subproblemas de forma separada y combinar los resultados parciales para obtener la solución parcial y finalmente obtener la solución total. Este método es utilizado recursivamente para facilitar el desarrollo. [18][19]

-

A continuación se muestra el esquema de la técnica divide y vencerás. Entrada: Problema P0

Ramificación y Acotación. Se parte de la creación de un algoritmo de tipo enumerativo, esto es, el problema original se descompone en una serie de problemas parciales de menor tamaño y de mismo tipo que el de partida. Esta técnica trata de maximizar o minimizar el valor de una función sobre una región de búsqueda arbitraria.

Programación Dinámica. Permite crear relaciones de recurrencia entre los problemas y sus descendientes, debido al principio de optimalidad ya que la decisión que se toma sólo depende de información local y nunca provoca la generación de resultados erróneos, por lo tanto basta con generar una decisión en cada estado. [20] A continuación se muestra el esquema de la técnica de programación dinámica.

Salida: Resultado R0

Método: Procedure DivideAndeConquer(Imput P, Output R); begin If small(P) then R := solve(P) Else begin divide(P,P1,….Pk); for j := 1 to K do DivideAndConquer(P1,R1); R := combine(R1,…Rk); End: {else} end; { DivideAndConquer }

Entrada: Problema P0 Salida: Resultado f[x1]…[xn] Método: Procedure DynamicProgramming; Var i1, i,2,….. in; Begin Initialize(f); For i, in set (x1)