sábado, 26 de septiembre de 2009

Bernardo Hernández en INICIADOR

El viernes pasado día 25 de septiembre estuvo Bernardo Hernández, Director Mundial de Geomarketing de Google, como invitado de honor en el evento INICIADOR Castellón, dónde trató, desde la evolución de las nuevas tecnologías, de transmitir un mensaje a su audiencia: "¡¡PENSAD EN GRANDE!!". Así mismo transmitió otros muchos y valiosos consejos como: "deja atrás los complejos", "no te impongas límites", "mira más allá de los límites de la tecnología actual", "sé el mejor en lo que hagas" o "rodéate de los mejores".



Foto de José Luis Suárez entregando su tarjeta de Corex a Bernardo HernándezFoto: José Luis Suárez entregando su tarjeta de Corex a Bernardo Hernández (fijáos en el maravilloso QR de la tarjeta de José Luis, generado con la propia API de Google)

Y ahí está nuestro nuevo Director de Marketing y Ventas, José Luis Suárez, pensando en grande y dejando atrás sus pocos complejos para presentarse a Bernardo Hernández y llamar su atención con la frase "Nosotros en Corex no estamos interesados en decir cómo se llama el perro de la vecina del amigo, sino qué opinan el resto de vecinos de cómo se porta el perro de la vecina del amigo", básico ejemplo de Sentiment Analysis aplicado a la vida cotidiana.



Foto de Bernardo Hernández conoce a José Luis Suárez de CorexFoto: Bernardo Hernández conoce a José Luis Suárez de Corex

Y es que en Corex tenemos muy claro el consejo que nos da Bernardo Hernández, algo que le dice a menudo su colega Larry Page, fundador de Google, y es que hay que rodearse de los mejores, saber localizar el talento y saber retenerlo. Nosotros nos basamos en el famoso dicho "Dios los cría y ellos se juntan". Hoy por hoy podemos congratularnos del gran fichaje que hemos realizado con José Luis Suárez pero, ¿será Bernardo Hernández el próximo fichaje de Corex?



¿Será Bernardo Hernández el próximo fichaje de Corex?Foto: ¿Será Bernardo Hernández el próximo fichaje de Corex?

Seguiremos trabajando en las líneas actuales y le haremos mucho caso a este gran profesional, y como bien le dijo José Luis, esperamos conseguir al menos la mitad de triunfos que él ha conseguido en su trayectoria.



¡Gracias Bernardo por tu conferencia y gracias a INICIADOR por hacerla posible!

martes, 22 de septiembre de 2009

Data Mining en GIS


Data Mining en GIS, también denominado Spatial Data Mining, consiste en el conjunto de tareas y métodos de Data Mining aplicados a la extracción de información de datos espaciales.


En el anterior enlace se trata de las tareas de Data Mining a nivel general, pero que pueden ser aplicadas a datos espaciales ya que la única diferencia es que esta última contiene una o más característica con información geográfica, aunque eso sí, deberán ser aplicadas teniendo en consideración algunas cosas respecto a las mismas.


En este artículo vamos a ver una breve introducción a las técnicas de Data Mining que se pueden aplicar en GIS para ver las posibilidades que nos brinda la unión de estas dos disciplinas.


Una base de datos espacial es una base de datos que contiene información sobre un espacio determinado, por lo que una característica diferenciadora es la dimensión espacio, bien se represente este en dos dimensiones (pe. un mapa urbano o un circuito electrónico), en tres dimensiones (pe. una ciudad en 3D o una galaxia), o en cuatro (pe. una representación 3D animada en el tiempo).


Una de las tareas más potentes que suelen incluir los GIS son los mapas temáticos que permiten visualizar de manera gráfica sobre el territorio (el mapa) una consulta que incluya información de cualquier tipo y que sea representable sobre él (pe. una coloración de la divisón por distritos de escolarización según el número de niños de 3 años a escolarizar el próximo curso).


Este análisis geográfico requiere del conocimiento de un experto para constuir el temático, y de otro experto para extraer el conocimiento adecuado. El Data Mining permite (al menos debe permitir) extraer de manera automática conocimiento válido, novedoso, útil y comprensible.


De las tareas de Data Mining descritas en el artículo referenciado, a continuación se explica la aplicación de alguna de ellas y sus particularidades:


  • Clasificación y regresión: Una de las características que suelen tener los objetos de un sistema espacial es que suelen estar afectados por las propiedades de los objetos cercanos en distancia. La clasificación en los sistemas espaciales se suele orientar a la clasificación de un objeto en una determinada categoría en función de propiedades de los objetos vecinos. Así pues, por ejemplo un método de Data Mining como los árboles de decisión aplicados a la tarea de Clasificación pueden resultar en ramas del tipo "Si Tráfico en Ciudad=Alto entonces Ciudad Ruidosa = Sí"

  • Reglas de asociación: Generalmente se utilizan para obtener pautas de comportamiento comunes, y en el caso de los GIS se pueden utilizar para encontrar relaciones entre objetos en función de relaciones topológicas (intersecta o se solapa) o informativas (está cerca o lejos) en modo de reglas del estilo "Si el objeto es un país y está cerca del Caribe Entonces es turístico con una cobertura y una confianza determinada"

  • Clustering: Consiste en agrupar objetos lo más homogéneos entre sí según determinadas características, y formando grupos lo más heterogéneos entre sí. Este tipo de tarea es muy útil en geoMarketing y en investigación de mercado (pe. segmentación geográfica de clientes), aunque también en planeamiento (pe. para decidir dónde construir un colegio según la cantidad de niños a escolarizar con todas las características que sirven para la asignación de puntos)


Es cierto que la literatura en este sentido, así como las empresas dedicadas a la aplicación de Data Mining en GIS, es bastante escasa, lo que da que pensar, dado el indudable valor que brindan sus posibilidades, que es un área poco explorada por ser poco conocida, al menos en España, por lo que se anima a los lectores interesados a ampliar información y a compartirla con todos nosotros.

viernes, 18 de septiembre de 2009

Datos anónimos... o no tanto

Este era el título de un post del famoso Blog de Microsiervos donde se hablaba de un estudio efectuado por una experta en estadística que fue capaz de identificar al 87% de una muestra de datos anónimos únicamente por su código postal, fecha de nacimiento y sexo.


Una de las principales ventajas de aplicar la minería de datos frente a la estadística (recordemos que si la madre de la minería de datos es el aprendizaje automático y la computación, el padre sería la estadística) es que permite trabajar con una cantidad mucho mayor de variables y obtener inferencias difíciles de obtener con procesos estadísticos clásicos.


El eterno problema de la "anonimización" surge por tanto de la poca seguridad que se tiene de que datos aparentemente anónimos puedan servir para reconstruir con un índice de confianza bastante elevado los datos de la persona que hay detrás.


Por ejemplo, un acceso aparentemente "anónimo" desde un medio electrónico, por ejemplo, una visita a cualquier página Web, puede no serlo tanto si el receptor de las peticiones, es decir, la página Web a la que se accede, tiene un sistema de rastreo básico como el proporcionado por cualquier servidor de alojamientos, por trackers como Google Analytics, o más aún por trackers hechos a medida.


Todos estos trackers obtienen como mínimo los siguientes datos: fecha/hora de acceso, tiempo de permanencia, página visitada e IP que efectuó la petición. ¿Son suficientes estos datos para "desanonimizar" una petición "anónima"? Pues depende... ¿qué opinan los lectores?


En otro post hablamos de Tareas en Data Mining y en otro post hablaremos de Métodos en Data Mining, completando de este modo la perspectiva general aplicable en esta disciplina y dándole una base suficiente para otra serie de artículos en otra disciplina hermana, el Use Mining, capaz de obtener patrones de acceso y de uso de los usuarios, y que permitirá al lector tener más claro hasta qué punto es factible esta "desanonimización" de manera más o menos sencilla... o no.

jueves, 17 de septiembre de 2009

curioSIGdades


Corex World lanza el blog curioSIGdades dónde se informará periódicamente de curiosidades del mundo GIS, desde noticias, eventos, desarrollos, librerías... hasta verdaderas curioSIGdades en esta apasionante disciplina.


De este modo se pretenden separar los contenidos más informativos, variados y periódicos recopilados en curioSIGdades de los artículos formales y elaborados que se emitirán en el blog oficial de Corex World y que seguirán la filosofía de la compañía de acercar de manera divulgativa los avances en I+D conseguidos por sus investigadores e ingenieros.


Y de entrada, curioSIGdades nace con varios artículos de gran interés:


El nombre se debe a la imaginación de nuestro amigo y compañero Miguel Ángel García, que esperemos pronto se anime a incluir fantásticos contenidos.

miércoles, 16 de septiembre de 2009

WikI+D: La Wiki de Investigación


El departamento de I+D de Corex Soluciones Informáticas hizo pública hace unas semanas su Wiki de gestión de recursos para la investigación con el nombre de WikI+D en la Url http://www.wikimasd.com.


La filosofía de la Wiki es 2.0, es decir, es de acceso totalmente libre, cualquiera puede darse de alta y escribir y/o modificar cualquier contenido de la misma, eso sí, siguiendo unas pautas, objetivos, valores y normas que en cualquier caso no se salen del sentido común del que todo investigador debe gozar.


La Wiki se acompaña de un Blog de noticias relacionadas (http://wikimasd.blogspot.com) en el que periódicamente se publicarán las últimas novedades de la Wiki así como los eventos relacionados con la investigación que resulten de interés.


¿De interés para quién? Para todos aquellos usuarios de la Wiki que deseen publicar algo. Para ello únicamente hay que notificármelo y publicaré todo lo relacionado con la investigación que me llegue, y si alguien quiere participar de manera más directa, le proporcionaré acceso al Blog para su libre utilización.


Por el número de visitas registradas en Google Analytics, y sobre todo por el índice de incremento diario de las mismas (aprox. 350%), la Wiki está teniendo una buena aceptación. Ahora falta que participéis en ella y la enriquezcais con vuestros conocimientos.


Una vez más, Corex I+D buscando alternativas para innovar.


NOTA: Tanto la Wiki como el Blog están escritos en inglés ya que su ámbito de actuación supera las fronteras nacionales por lo que, aunque en el proyecto participan varias traductoras profesionales que regularmente corregirán los contenidos, se solicita a los participantes que intenten escribir los contenidos en este idioma.

martes, 15 de septiembre de 2009

Curso de SIG en Valencia


Los próximos días 13, 14 y 20, 21 de Noviembre de 2009, tendrá lugar en el hotel NH Abashiri sito en la ciudad de Valencia las 1as Jornadas del curso de Introducción a los Sistemas de Información Geográfica, organizadas por Corex Soluciones Informáticas, S.L. y con la colaboración de ACTIG, Centro de Soporte IDEC, Itaca, Mavir, media-2.com y Sugarcom, las cuales acogerán este año las ponencias del Doctor D. Jordi Guimet Pereña, Director del centro de soporte de la infraestructura IDEC, D. Pedro Sardinero Soto, Responsable de desarrollo de negocio en las AA.LL. de SIG en T-Systems Iberia, D. Carlos Lamas López, Responsable del departamento SIG de T-Systems Iberia, D. David Borrajo De Orozco Arnau, Director de Proyectos de localización Corex, S.L. y D. Francisco Manuel Rangel Pardo, Director I+D+I Corex soluciones Informáticas.


Dirigido a estudiantes y profesionales que necesiten ampliar sus conocimientos en SIG, se dispone de bolsa de prácticas en empresa para los alumnos que así lo soliciten, así como se prevé lanzar en breve sucesivos cursos de especialización en cada una de las áreas introducidas aquí.


La información del curso se puede consultar en http://world.corex.es/productos/world/doc/Introducción%20al%20SIG.pdf ya está abierto el periodo de inscripción en la siguiente dirección http://world.corex.es/productos/world/curso_de_introduccion_al_gis_en_valencia.aspx que finalizará el próximo 6 de Noviembre.


Para más información:

Teléfono de contacto: 676 55 89 50

eMail: corexworld@corex.es

Web: http://world.corex.es

sábado, 12 de septiembre de 2009

Tareas en Data Mining



El presente artículo, sin ser exhaustivo, pretende mostrar una taxonomía de las tareas de Data Mining más importantes, además de las más conocidas como son la clasificación, regresión o reglas de asociación.


En primer lugar hay que diferenciar entre dos tipos de tareas, las predictivas, que son aquellas que aprenden a partir de un conjunto de entrenamiento correctamente etiquetado y posteriormente son capaces de predecir nuevos valores, y las descriptivas, que parten de un conjunto de valores no necesariamente etiquetados, por lo general no etiquetados, y su objetivo es describirlos.


Ambos tipos de tareas se entenderán mejor a continuación, pero previamente daremos unas definiciones necesarias:


  • E: Conjunto de todos los posibles elementos de entrada. Se suele representar como un conjunto de atributos nominales o numéricos A

  • A: Conjunto de atributos nominales o numéricos de E. E=A1 x A2 x ... x An

  • e € E: Elemento ejemplo perteneciente a E y representado por la tupla e=<a1, a2, a3...an> dónde a € A

  • S: Conjunto de valores de salida


Con las anteriores definiciones, pasemos a ver las tareas más importantes:



  • Predictivas: Dónde los elementos se presentan como d={<e,s> dónde e € E y s € S} y se denominan ejemplos etiquetados, ya que a un elemento determinado, definido por el conjunto de atributos a € A, le corresponde un conjunto de elementos de salida s € S


    • Clasificación: Es una de las tareas más frecuentes en datamining, y también se le denomina discriminación en estadística. Su objetivo es aprender una función f:E->S a partir de la colección de elementos de entrada etiquetados, d arriba descrita, con la clase a la que pertenecen. Si S sólo tiene un valor hablamos de clasificadores binarios (pe: es o no spam). La función f aprendida será capaz de decir para un nuevo ejemplo no etiquetado cuál será su clase. La clasificación suave se formula de igual manera pero además se añade el aprendizaje de otra función que indicará el grado de certeza en la clasificación, lo que por un lado da la bondad de la predicción efectuada, y por otro permite priorizar en la generación de rankings de clasificadores. El problema de la estimación de probabilidad de clasificación es similar a los dos anteriores pero aquí la función que se aprende es la de la probabilidad de que un ejemplo cualquiera pertenezca a cada una de las clases, y al conjunto de funciones aprendidas se les denomina estimador de probabilidad.

    • Categorización: En este caso lo que se aprende es una correspondencia, esto es, para cada entrada e € E no sólo hay una correspondencia en s € S sino que puede haber varias, esto es, cada elemento puede estar etiquetado con más de una clase (pe: los artículos de este blog tienen más de una etiqueta, por lo que categorizar un artículo significa predecir qué etiquetas tendrá en función de los ejemplos que ya existen en el archivo). En este caso también se puede presentar una categorización suave o un estimador de probabilidad.

    • Priorización: El problema consiste en obtener una lista de preferencias de unos datos dados a partir del aprendizaje de ejemplos previamente ordenadas. La definición formal es algo más compleja que la de la clasificación/categorización porque en este caso se habla de secuencias de elementos, pero el trasfondo es similar. Este tipo de tareas se suele utilizar para presentar los datos, y un ejemplo de aplicación muy divertido es el explicado en la Teoría de la elección pública. Sobre el tema de la priorización volveremos en próximos artículos cuando hablemos de Interfaces Inteligentes como la presentada en Diseño de Interfaces

    • Regresión: La regresión se define de manera muy similar a la clasificación, esto es, para cada ejemplo cada entrada se corresponde un único valor de salida d:E->S y se debe aprender la función capaz de predecir nuevos ejemplos. La diferencia está en que los valores de S únicamente pueden ser numéricos, y su representación gráfica generalmente se efectúa mediante rectas o curvas más o menos elaboradas dependiendo de la complejidad de la formulación aplicada. Un ejemplo de regresión sería la predicción de las ventas del siguiente trimestre en función del histórico de ventas efectuado, por lo que también se le suele denominar estimación cuando se habla de valores futuros, e interpolación cuando se habla de valores intermedios. Volveremos sobre la regresión cuando hablemos sobre los Indicadores de Gestión y los Cuadros de Mando incluidos en los produtos de gestión de Corex SI: SIC+ y Thor.



  • Descriptivas: Los ejemplos se presentan como conjuntos d={e dónde e € E} sin etiquetar ni ordenar de ninguna manera.


    • Agrupamiento ó clustering(ver imagen): El objetivo es obtener conjuntos de elementos similares entre sí, esto es, que los grupos contengan elementos lo más homogéneos entre sí dentro del grupo y lo más heterogéneos posible con el resto de grupos. La principal diferencia con la clasificación es que aquí no se aprende a qué grupo pertenece una instancia, ya que no se conoce ni siquiera los grupos que hay ni se tendría por qué conocer la cantidad de los mismos, sino que se aprende precisamente estos grupos a partir del proceso de aprendizaje, dónde se crean o inventan. Un ejemplo claro de clustering es la segmentación de clientes en marketing cuando se observa un conjunto de clientes y se agrupan según la observación de ciertos comportamientos (atributos), y no cuando se crean los grupos artificialmente y se decide incluir a los clientes en uno u otro grupo. Una nueva instancia se sabe cómo se comporta viendo a qué grupo pertenece. En la agrupación también existe el concepto de suave y de estimador de probabilidad.

    • Correlación o factorización: El objetivo es determinar dado el conjunto de atributos A de un elemento E, E = A1 x A2 x ... x An, si dos o más atributos están relacionados de algún modo. La correlación o factorización se limita a atributos numéricos, y únicamente determinan relación entre dos elementos, nunca causalidad, es decir, son bidireccionales y no orientados.

    • Reglas de asociación: Similares a la correlación y factorización pero para atributos nominales. Las reglas de asociación son una de las tareas principales de datamining y se aplican principalmente a bases de datos. Con ellas se puede obtener reglas del tipo "si compró este producto hay tanta probabilidad de comprar este otro". La implicación puede ser unidireccional y orientada o bidireccional. En esta categoría se suelen incluir las dependencias funcionales, diferenciándose en que estas consideran todos los posibles valores. Por ejemplo, sabiendo el nivel de ingresos, el rango de edad al que pertenece el cliente, la étnia, el nivel de estudios según varios valores y si está casado se puede determinar si un cliente puede ser moroso. La disciplina de Use Mining aplicada al eCommerce suele utilizar las reglas de asociación para facilitar al usuario productos que le puedan interesar según los productos seleccionados e incluso por los productos sobre los que ha prestado atención (clics en detalle por ejemplo sin necesidad de añadir a la cesta) y que Corex utiliza de diversas maneras en su sistema de eCommerce Thor.

    • Detección de valores e instancias anómalas: El objetivo es encontrar instancias que no son similares a ninguna de las demás instancias y se suele utilizar para detectar fraudes, fallos, intrusos, comportamientos diferenciados... por ejemplo fraudes en el uso de tarjetas de crédito (la hora, lugar, importe de una operación con tarjeta es diferente a su uso general), fallos en las redes de transmisión (el nivel de ruido, la latencia, el orden de llegada... de un paquete es diferente a los demás), intentos de acceso no autorizados (la combinación de caracteres en la contraseña, el número de intentos, los intervalos entre ellos... difieren de todos los usos corrientes)...




Con lo anterior se define de manera general las tareas principales en Data Mining, aunque no se incide excesivamente en su definición formal para un entendimiento general de las mismas, ni se explica tampoco el uso de unas tareas para realizar otras, por ejemplo, el uso de clasificadores binarios para obtener categorizaciones, o el uso de clustering para detectar usos diferenciados. Si se desea ampliar información se recomienda leer los trabajos de Hernández Orallo.


En el siguiente artículo trataremos los métodos más frecuentes en Data Mining y cómo se relacionan con las tareas aquí descritas, de manera que se tenga con ambos artículos una visión general de los métodos que comprenden esta apasionante y potente disciplina.

viernes, 11 de septiembre de 2009

Andreu González de la Clínica Fivasa en las Provincias

Seguimos con la campaña de prensa en las provincias, y esta vez le toca a Andreu, fisioterapeuta de la Clínica Fivasa



A continuación dejo la entrevista:



martes, 8 de septiembre de 2009

La importancia de las marcas

Comentaba con el compañero Francisco de la importancia de los nombres de los productos y las marcas en general. 

Cuando creas una empresa intentas que sea algo novedoso y piensas que el nombre que le des sea único.

En algunos casos esto no se produce, además tenemos un claro ejemplo en España con una famosa marca de leche que no tiene su pagina Web con su nombre como la mayoría, salvo casos excepcionales.

Otras veces cuando eliges un nombre y luego empiezas a indagar descubres cosas sorprendentes como las que vienen a continuación.

Dos de las empresas de Grupo Fivasa son por curiosidad medicamentos, lo que tiene gracia ya que son empresas ligadas a la rama médica.

Por un lado Corex es un medicamento indicado para la Tos en la India y Fivasa sirve para tratar una afección del intestino grueso en Túnez.

Como curiosidad tenemos  la Calle Fivasa de Ávila.

Del otro lado encontramos a Corex que tiene más coincidencias a nivel mundial.

Corex en el Reino Unido es una empresa de análisis geológicos y es líder mundial en formación independiente de análisis de daños.

En Australia nos encontramos al nombre Corex asociado a la industria del plástico.

Ya en Estados Unidos vemos Corex como una empresa de soluciones globales para la pintura y la limpieza.

Más cerca de nosotros en Bélgica se encuentra Corex pero de soluciones de empaquetado, así que seguramente las esquineras de cartón de Corex las hayamos gastado alguna vez al desembalar algún paquete.

Actualmente Siemens crea plantas de tratamiento de hierro a través del proceso Corex.

Relacionada con el mundo del oro también hay Corex en Canadá que se dedica a la explotación geológica.En el país mas poblado del mundo (China) las siglas de Corex están relacionadas con un proyecto para reducir las emisiones de dióxido de carbono.

Como últimas curiosidades tenemos una cinta metálica, una consultoría de logística y hasta una empresa de material fungible, compartiendo un nombre: Corex.

Hay muchas mas empresas que contienen el mismo nombre alrededor del mundo pero lo que diferencia a Corex Soluciones Informáticas  del resto de empresas aquí mencionadas es que nos esforzamos día a día en ofrecer a las empresas un núcleo tecnológico de innovación.

De ahí viene la historia de nuestro logo, un enorme núcleo de energía, la misma con la que ofrecemos nuestros productos y servicios a través de nuestra colaboración con empresas y universidades.

Nuestra base tecnológica nos permite orientar todos nuestros esfuerzos a la investigación orientada a las empresas para cumplir nuestro principal objetivo: Innovar

Seguramente cuando Corex Soluciones Informáticas se creo no se tenia en mente que implicaba la importancia de ese nombre pero queda demostrado que se eligió acertadamente.

lunes, 7 de septiembre de 2009

Francisco Rangel de Corex en las Provincias

Hace poco fui entrevistado por una columnista de las Provincias y hoy sale mi entrevista en dicho diario.


Desde aquí me gustaría aclarar un error que sale en dicha entrevista, justificando el mismo por la gran dificultad que ha debido tener la periodista para reducir a unas pocas líneas la casi una hora que estuvimos hablando de tecnología y empresa.


En el artículo se habla de nuestras líneas de negocio y se nombra un caso concreto de cómo aplicamos la investigación más puntera en la creación de productos de valor para nuestros clientes, pero se hace de manera equivocada y sin entrar mucho en detalle.



El producto concreto es ChipCard, y el error está en que en la entrevista se deja entrever que nosotros hemos creado este sistema para facturar a las compañías de seguro. ERROR y nada más lejos de la realidad. ChipCard es un sistema creado y afianzado en el ámbito de la salud y las compañías de seguros por la empresa ChipCard Salud SA, no por Corex Soluciones Informáticas.



Corex Soluciones Informáticas lo que ha hecho es aplicar la investigación en técnicas de information extraction y de natural language processing para capturar los datos enviados a chipcard desde su página web y generar con ellos el estudio correspondiente en el sistema de información que tenga el centro de salud.



En la actualidad, la mayoría de compañías de seguro de salud privadas trabajan con el sistema ChipCard. Este sistema asigna una tarjeta sanitaria al paciente que cuando la necesita, y previa confirmación por parte de la compañía, la puede usar para pagar sus servicios a la clínica privada adscrita a ello.



Para ello, cuando el paciente sale de la consulta, pasa la tarjeta por un lector, y desde la web de ChipCard se indican los actos médicos efectuados, generando de este modo de manera automática la factura a la compañía de seguros del paciente. Posteriormente la compañía de seguros paga a la clínica según los actos efectuados y sus baremos.



Pero la clínica además tiene que generar su propia factura, para lo que normalmente imprime la información de la pantalla de ChipCard y la pica a mano en su ERP.



Corex, aplicando las técnicas arriba indicadas, captura automáticamente estos datos y mediante diversas técnicas de NLP obtiene las diversas entidades que aparecen (paciente, compañía, actos médicos, confirmación de operación...) y genera un estudio en el ERP local, que bien puede ser SIC+ de Corex que lo lleva incorporado, bien cualquier ERP que el cliente tenga que sea capaz de obtener documentos UBL o facturae.



Pues como podéis comprobar, si a mi ya me ha costado explicar todo esto de manera clara y sin la limitación de espacio que tiene un medio impreso, intentad imaginar el suplicio que habrá supuesto para la periodista meterlo en una pequeña columna como la que aquí abajo os dejo.



Disculpad la foto pero no teníamos otra a mano...



domingo, 6 de septiembre de 2009

Diseño de Interfaces


Al igual que en la actividad empresarial se comenzó con una orientación claramente productiva, y a lo largo del siglo pasado y lo que llevamos de este ha ido variando esta orientación hasta centrar al cliente como objetivo primero y último de la misma, el diseño de programas informáticos ha ido evolucionando desde su concepción inicial a la resolución de problemas, pocas veces teniendo en cuenta el problema mismo de usar dichos programas, hacia la mejora de la experiencia del usuario, mediante aplicación de pautas en el diseño de interfaces.


Pero al igual una vez más que en el entorno empresarial, esto no siempre es así, y no lo es principalmente por falta de enfoque de las personas que componen el equipo. Así pues, el informático suele focalizar sus objetivos en el diseño robusto, eficiente, eficaz... incluso maquiavélico de sus programas, es decir, suele centrarse principalmente en la técnica, y no en el usuario al que va dirigido. Por otro lado la formación de los diseñadores incide en aspectos técnicos como la teoría de color, la fotografía digital, la combinación de estilos, las pautas y estándares, o en aspectos subjetivos como los modelos de comunicación gráfica, siempre con el objetivo de agradar e incluso comunicar algo al usuario, pero pocas veces pensando en que él va a ser el partícipe de esto.


En resumen, el informático busca que su programa tenga una gran funcionalidad con una gran técnica y el diseñador que sea bonito y llamativo por demás. Y no siempre se combinan ambos objetivos para darle al usuario lo que realmente quiere o necesita. Y esto incluso en grandes proyectos con gran éxito, como por ejemplo Facebook.


Pero también es cierto que cada día más se profesionaliza el diseño de interfaces a partir de investigaciones en campos tan variados pero relacionados como la psicología cognitiva, la psicología de la comunicación, la lingüística, la teoría de la información (véase Una imagen vale más que mil palabras), la accesibilidad y la usabilidad, la inteligencia artificial, la minería de uso o los interfaces adaptativos, de las que actualmente se desprenden ocho reglas de oro genéricas en el diseño de interfaces (para ampliar más información leer a Ben Shneiderman**):


  • Consistencia: Uno de los aspectos más importantes a tener en cuenta en el diseño de interfaces es el conseguir su consistencia a lo largo del mismo, pero también es una de las reglas que más veces se rompe. Consistencia significa una composición de color, estilos y fuentes homogénea a lo largo de la interfaz, pero también un uso del lenguaje y la terminología, unos métodos de ayuda, una forma de recuperación de errores e incluso una forma de reaccionar ante acciones del programa de manera consistente a lo largo del mismo.

  • Usabilidad universal: En este blog ya tratamos este aspecto cuando hablábamos del Center of Universal Design o del proyecto Build for All. En cualquier caso la usabilidad universal hace referencia tanto a los diferentes aspectos socio-culturales en el caso de aplicaciones globales, como puedan ser las aplicaciones Web, como a aspectos psicológicos y de aprendizaje, tales como los rangos de edad, las discapacidades o la diferenciación en general entre el principiante y el experto en el uso de aplicaciones de escritorio.

  • Realimentación informativa: En todo momento el usuario debe conocer el estado del sistema y de sus acciones, para lo cual es preciso que el mismo interfaz ofrezca una realimentación rica pero sin sobrecargar de información al usuario, aprovechando los principios del diseño universal para mostrar en mayor o menor medida la realimentación en función de las capacidades del usuario.

  • Conducir las tareas: El interfaz es un medio de comunicación entre el usuario que desea efectuar alguna tarea con el sistema y el sistema que las efectúa. El sistema estará organizado para realizar las tareas de un modo u otro, y la interfaz debe facilitar el camino al usuario desde el comienzo de la misma hasta su finalización, guiando el proceso en todo momento, aprovechando para realimentar de manera eficiente y para aplicar principios de diseño universal que permitan la construcción de atajos o liberen de sobrecarga de confirmaciones al usuario avanzado, por supuesto siempre manteniendo la consistencia en los modos de uso.

  • Prevenir errores: Tal y como inscribió Sigmound Freud en su retrato, "No hay medicina contra la muerte y contra el error no se ha hallado ninguna regla", puesto que un error puede aparecer en cualquier momento, se debe evitar al máximo desde el diseño de la interfaz que el usuario pueda cometer errores en la introducción de datos, en las etapas de resolución de las tareas y en general en todo aquello que pueda comprometer la consistencia del sistema. En caso de producirse errores se debe permitir una recuperación del sistema, bien automáticamente, bien informando de manera correcta al usuario, indicándole el error producido, los motivos y los medios para resolverlo, y por supuesto, siendo consistente a lo largo de toda la aplicación en esta tarea.

  • Deshacer acciones: No hay nada que de mayor control que la seguridad, y la seguridad se da sobre todo cuando no se tiene miedo al error. Una manera de no tener miedo al error es permitir echar atrás de manera sencilla acciones que han dado lugar a un error. Si se produce una situación no deseada y el usuario tiene la capacidad de manera sencilla de echar atrás dicha situación, le dará mayor seguridad sobre la realización de la tarea y por tanto aumentará su aprendizaje y mejorará su experiencia de uso. Esto es posible en ciertas aplicaciones, por ejemplo, una entrada errónea en un procesador de textos es fácilmente restaurable, en cambio una entrada incorrecta en un proceso de carga de asientos contables no lo es tanto. Se deberá llegar a un compromiso, pero en cualquier caso siempre la posibilidad de restaurar estados seguros del sistema son positivos tanto para el sistema como para el usuario del mismo.

  • "Dar soporte al locus de control interno": Significa hacer a los usuarios "iniciadores de acciones", que obtengan el control del sistema, que sean ellos los que dominen y manden las acciones y el sistema responda a ellos, todo ello a partir de la interfaz de usuario. Para ello se deben eliminar las secuencias de entrada de datos tediosas, la dificultad para obtener la información necesaria por requerir excesiva información o excesivos pasos, la dificultad para realizar determinadas acciones... El ejemplo más sencillo suelen ser los interfaces de los bancos, dónde cada acción requiere un dato de entrada normalmente vinculado a una acción anterior pero sin continuidad entre ellas.

  • Reducir la necesidad de memoria a corto plazo: Numerosos estudios indican que el ser humano suele recordar entre 5 y 9 elementos de información a corto plazo, la denominada regla del "siete más/menos dos", lo que implica que las interfaces de usuario deberían liberar al usuario de la necesidad de aprender excesivos datos a corto plazo para su uso inmediato, lo que se mejora siguiendo la consistencia del sistema, diseñando el mismo con una orientación clara hacia la consecución de las tareas, dónde se guía al usuario desde su inicio hasta su finalización, y atendiendo en general a los principios de diseño universal.


En el post Las diez plagas de la era de la información tratábamos los aspectos que en general ofrecen una mala experiencia al usuario de los sistemas de información y también allí tratábamos de dar la importancia que se merece el diseño de interfaces amigables para combatir estas plagas.


En posteriores posts hablaremos del uso del animismo, de las interfaces adaptativas y de algunas medidas de usabilidad de los sistemas, de manera que el lector tenga una idea general de los medios y mecanismos que existen para luchar contra las interfaces mal diseñadas y oriente sus desarrollos hacia lo realmente importante, que es la mejora de la experiencia de usuario.





* Imagen capturada de la pantalla de inicio de SIC+, el sistema de información para clínicas médicas de Corex Soluciones Informáticas, que con este aspecto renovado entra en la beta de su versión 2.0, incluyendo mejoras como la minería de uso para el aprendizaje del perfil del usuario y el uso de una interfaz adaptativa para mejorar su experiencia.
** La mayoría de ideas plasmadas en esta serie de artículos provienen del libre "Diseño de Interfaces de Usuario" de Ben Shneiderman y Catherine Plaisant, así como de la multitud de referencias que aparecen en los capítulos del mismo. Se puede ver más información en WikI+D

miércoles, 2 de septiembre de 2009

María Llambies de la Clínica Fivasa en las Provincias

En las provincias de hoy se publica una entrevista efectuada a María Llambies, podóloga de la Clínica Fivasa, y que se reproduce a continuación:





LA OSTEOPOROSIS, ¿CÓMO PREVENIRLA?


Seguimos con la serie de artículos que han escrito nuestros profesionales este en concreto lo ha escrito la Dra Carmen Gracia Espert, en la etapa con nosotros, si tienen cualquier duda pongan se en contacto con el servicio de Traumatología o bien esperamos sus comentarios.




La osteoporosis es un trastorno de los huesos que se caracteriza por una alteración en la estructura de los mismos, que predispone a la aparición de fracturas, sobre todo, de cadera, vertebrales y de muñeca.
Se estima que en España hay 2 millones de mujeres y 750.000 varones con osteoporosis; las consecuencias sobre la calidad de vida de las personas que la padecen son importantes, especialmente, la de aquellas que han sufrido fracturas, como así lo demuestran diversos estudios. La fractura vertebral y de cadera afecta a mujeres entre 70 y 80 años, mientras que la fractura de muñeca se presenta más frecuentemente entre los 50 y los 70 años.
¿Significa esto que todas las mujeres de esta edad deben medicarse para prevenir la osteoporosis? ¿Estaría indicado la realización de una prueba determinada – densitometría – en todas las mujeres tras la menopausia para diagnosticar esta alteración?
Efectivamente, la osteoporosis constituye un problema de salud pública y su prevención en la población general consiste, básicamente, en adquirir ciertos hábitos, como una dieta equilibrada que aporte suficiente calcio y vitamina D, realizar ejercicio físico de forma regular y evitar el tabaco y el alcohol. Es cierto que a todos nos resulta más fácil tomar una pastilla que caminar diariamente una hora; sin embargo, no todas las mujeres necesitan sistemáticamente medicarse a partir de una cierta edad, sólo algunas. De igual modo, los estudios demuestran que no está indicada la realización de densitometrías en toda la población, sólo en aquella con factores de riesgo.
Por tanto, consulte al médico antes de medicarse y confíe en su criterio, le indicará si necesita o no medicación, así como la realización de alguna prueba diagnóstica, pero recuerde que unos hábitos de vida saludables pueden hacer por usted y por su salud más que el mejor especialista.