Mostrando las entradas con la etiqueta Usabilidad. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Usabilidad. Mostrar todas las entradas

domingo, enero 20, 2008

¿Como penaliza Google?


Google no permite que los webmasters abusen de su algoritmo, e intenten situar algunas páginas en las primeras posiciones de los resultados mediante prácticas fraudulentas. Últimamente se están encontrando demasiadas páginas web en estas primeras posiciones cuyos contenidos tienen poco o nada que ver con lo que se está buscando. Google lo sabe, y no quiere permitir que los usuarios dejen de utilizar sus servicios. Así, está penalizando a algunas de estas páginas web.

Por ello, en algunas búsquedas en las que se cometen bastantes abusos, Google incluye un formulario para que el usuario aporte comentarios sobre resultados que no le satisfacen.

Además, Google también dispone de un espacio para informar sobre casos de 'spam', en el que cualquiera puede avisar al equipo técnico de Google de que determinado sitio web está intentando abusar del algoritmo de Google.

A partir de ahí, y sin obligación de tener que dar ninguna explicación (ni siquiera a los responsables del sitio web), Google puede penalizar estas páginas web. La forma de penalizarlos puede ir desde borrarlos de sus resultados, disminuir su PageRank, o no tener en cuenta los enlaces desde una determinada página.

Ejemplos de penalizaciones los encontramos en octubre de 2002, cuando Google disminuyó el PageRank de las páginas de SearchKing (se sospecha que fue considerado como una 'link farm'), y en noviembre de 2003, cuando Google incluyó una serie de filtros para combatir el 'spam'.

¿Como penaliza Google?


Google no permite que los webmasters abusen de su algoritmo, e intenten situar algunas páginas en las primeras posiciones de los resultados mediante prácticas fraudulentas. Últimamente se están encontrando demasiadas páginas web en estas primeras posiciones cuyos contenidos tienen poco o nada que ver con lo que se está buscando. Google lo sabe, y no quiere permitir que los usuarios dejen de utilizar sus servicios. Así, está penalizando a algunas de estas páginas web.

Por ello, en algunas búsquedas en las que se cometen bastantes abusos, Google incluye un formulario para que el usuario aporte comentarios sobre resultados que no le satisfacen.

Además, Google también dispone de un espacio para informar sobre casos de 'spam', en el que cualquiera puede avisar al equipo técnico de Google de que determinado sitio web está intentando abusar del algoritmo de Google.

A partir de ahí, y sin obligación de tener que dar ninguna explicación (ni siquiera a los responsables del sitio web), Google puede penalizar estas páginas web. La forma de penalizarlos puede ir desde borrarlos de sus resultados, disminuir su PageRank, o no tener en cuenta los enlaces desde una determinada página.

Ejemplos de penalizaciones los encontramos en octubre de 2002, cuando Google disminuyó el PageRank de las páginas de SearchKing (se sospecha que fue considerado como una 'link farm'), y en noviembre de 2003, cuando Google incluyó una serie de filtros para combatir el 'spam'.

Wikia todavía no encuentra el modelo


El buscador social, ideado por el fundador de Wikipedia, se basa en el código abierto, que permite a los usuarios colaborar en la mejora del servicio. No obstante, el mecanismo, que se encuentra en su fase de prueba, recibió duras críticas de los expertos y hasta de su propio creador .

Los intentos de Wikipedia para competir con Google en el rubro búsquedas en la Red no dieron, hasta ahora, un resultado positivo. El argumento: la herramienta aún está en su fase de prueba. Habrá que ver si el producto terminado responde a las expectativas de los más exigentes. Wikia Search, creado por el fundador de Wikipedia, Jimmy Wales, apunta a ser un buscador social, en contraposición con el megabuscador de Google, que trabaja en base a un algoritmo (Page Rank) que calcula cuáles son las páginas más relevantes para cada búsqueda.

El nuevo sitio, según publica hoy el diario español Elmundo.es, estará basado, a diferencia de su predecesor, en el código abierto (Nutch). Así, los usuarios podrán mejorar el servicio a través de votaciones, cortas definiciones de búsqueda y debates sobre resultados.


Los expertos no recibieron con los brazos abiertos a la nueva herramienta a la que le prodigaron severas críticas. "El sitio de prueba es, seguramente, una de las mayores decepciones que jamás he contado", disparó Michael Arrington de Techcrunh. Wales recoge el guante, toma nota y responde: "Esperamos que Wikia Search sea como el buen vino, e igual que este mejore con el tiempo, mejoremos a medida que la gente contribuya". Mientras espera, no olvida lanzar sus dardos contra Google, compañía a la que critica por ocultar cómo funciona su buscador y sugerir que su mecanismo debería ser abierto y transparente.

Wikia todavía no encuentra el modelo


El buscador social, ideado por el fundador de Wikipedia, se basa en el código abierto, que permite a los usuarios colaborar en la mejora del servicio. No obstante, el mecanismo, que se encuentra en su fase de prueba, recibió duras críticas de los expertos y hasta de su propio creador .

Los intentos de Wikipedia para competir con Google en el rubro búsquedas en la Red no dieron, hasta ahora, un resultado positivo. El argumento: la herramienta aún está en su fase de prueba. Habrá que ver si el producto terminado responde a las expectativas de los más exigentes. Wikia Search, creado por el fundador de Wikipedia, Jimmy Wales, apunta a ser un buscador social, en contraposición con el megabuscador de Google, que trabaja en base a un algoritmo (Page Rank) que calcula cuáles son las páginas más relevantes para cada búsqueda.

El nuevo sitio, según publica hoy el diario español Elmundo.es, estará basado, a diferencia de su predecesor, en el código abierto (Nutch). Así, los usuarios podrán mejorar el servicio a través de votaciones, cortas definiciones de búsqueda y debates sobre resultados.


Los expertos no recibieron con los brazos abiertos a la nueva herramienta a la que le prodigaron severas críticas. "El sitio de prueba es, seguramente, una de las mayores decepciones que jamás he contado", disparó Michael Arrington de Techcrunh. Wales recoge el guante, toma nota y responde: "Esperamos que Wikia Search sea como el buen vino, e igual que este mejore con el tiempo, mejoremos a medida que la gente contribuya". Mientras espera, no olvida lanzar sus dardos contra Google, compañía a la que critica por ocultar cómo funciona su buscador y sugerir que su mecanismo debería ser abierto y transparente.

lunes, enero 07, 2008

Rating en Internet

¿Cuántas personas entraron en Forbes.com el pasado septiembre? Esta pregunta que debería tener una respuesta sencilla resulta casi imposible de responder. Nielsen Netratings asegura que 7,5 millones de personas diferentes (usuarios únicos) visitaron la edición digital de esta revista, sin embargo, ComScore calcula que sólo fueron 5,8 millones de usuarios, mientras que los datos internos del Forbes.com dicen que llegaron a 11,6 millones de visitantes de Estados Unidos.

Los anunciantes no entienden que haya tanta diferencia entre los sistemas

El acuerdo con Nielsen puede ser clave para dar credibilidad a la OJD
El caso de Forbes, del que se hacía eco The New York Times en un artículo donde se habla de las contradicciones de los sistemas de medición de audiencias online, no es nuevo y es replicable a cualquier web. Desde que Internet existe, la guerra entre los distintos sistemas para imponerse como el más fiable no ha cesado.

En un principio, Internet se presentó como la herramienta perfecta para monitorizar al usuario, para conocer sus hábitos y hacer una perfecta radiografía de quién está detrás del ordenador, pero la realidad ha demostrado todo lo contrario. "Nos decían que en Internet se podía medir todo, pero no es verdad. Las mediciones online resultan especialmente complicadas", asegura Fernando Bermejo, profesor de la Universidad Rey Juan Carlos, y autor de La Medición de Audiencias en Internet. Su tesis se publicó en Estados Unidos antes que en España, y para su portada eligió un famoso chiste publicado por la revista New Yorker en el que se pueden a ver dos perros frente a un ordenador y uno le dice a otro: "En Internet, nadie sabe que eres un perro", que expresa muy bien algunas de las lagunas de las actuales metodologías.

Los anunciantes, las centrales de medios y los medios de comunicación se han cansado de los datos dispares y en los últimos meses se han disparado las iniciativas para que la industria llegue a un acuerdo. En Estados Unidos, creen que el primer paso hacia la transparencia pasa por la auditoría, y desde el pasado mes de abril,se ha propuesto que Media Rating Council (MRC), una entidad neutral, certifique las audiencias online de los sistemas de paneles de Nielsen y Comscore como ya lo hace con la televisión.

Por un estándar común

En España, la asociación de publicidad interactiva IAB junto con la Asociación de Investigación de los Medios de Comunicación (AIMC) han creado un grupo de trabajo para establecer unas medidas comunes que compartan los distintos medios. Y en esta misma línea, la IAB y su homóloga la Asociación Europea de Publicidad Interactiva (EIAA), acaban de firmar un acuerdo para establecer "el primer sistema de medición estándar internacional que definirá las audiencias interactivas, de una manera concreta y de fácil uso", según describe la nota oficial.

El principal disgusto de los anunciantes es que quieren más transparencia en los datos. Esto no significa que vivamos en la oscuridad y las mentiras, pero cada método tiene sus limitaciones y se está produciendo mucha confusión.

Los primeros sistemas que se empezaron a utilizar fueron, los englobados dentro del concepto de WebCentric. A este segmento pertenecen las metodologías que toman los datos de los navegadores o de los servidores. Los más antiguos son los logs, que funcionan con un pequeño fichero que recoge todas las transacciones que se realizan en el servidor del sitio web en el que quedan registrados las idas y venidas de los usuarios.

En principio, parecían los datos más fiables, pero estos datos son muy manipulables pues están en las manos de cada sitio web y resultan incontrolables para una empresa externa. Además, consumen demasiados recursos para las webs con mucha audiencia, lo que ha hecho que caigan en desuso.

Los tags

Los tags, o las marcas, es una de las metodologías más extendida que consiste en que las empresas de medición introducen un pequeño código, un tag, en cada una de las páginas del sitio web. Cada vez que un PC entra en una de las páginas marcadas, este código envía al servidor de mediciones todos los datos sobre su visita. "Si el tag está bien puesto en todas las páginas de un sitio (al final de la página, con un solo tag por página, etc.), y el software que lo gestiona en el servidor es bueno, es uno de los sistemas de medición más fiables", opina Miguel A. Díez Ferreira, consultor de Internet y autor del blog El Analista que publica ELPAIS.com.

Este es el sistema que usa la OJD Interactiva para sus análisis. Hasta ahora tenía una tecnología propia que va a abandonar por la de Nielsen, que aunque es más conocido por sus paneles, también cuenta con dos herramientas censales: Nielsen Site Census, que sólo sirve para obtener datos internos de una web y la llamada Market Intelligence, con validez pública, que ahora además va a estar auditada por la OJD.

Este es un paso muy importante pues hasta ahora la gran queja de Nielsen y otros era que en España se mezclaba la medición y la certificación, algo que resultaba poco imparcial.

Gracias a este acuerdo, OJD y Nielsen han pasado de competidores a socios y lo que supone que OJD va a dejar definitivamente la medición de audiencias en Internet, en la que ha invertido mucho dinero y tiempo. De hecho, en los últimos años ha cambiado de sistemas de medición hasta en tres ocasiones, y con este acuerdo, su último gran proyecto, conocido como TAO, también queda finalmente abandonado.

Como fruto del uso de la herramienta Market Intelligence, OJD Interactiva acaba de aprobar nuevas normas para todos sus clientes, en la que se describe cómo usar los tags o qué páginas deben marcarse. Las nuevas normas empezarán aplicarse en el mes de enero para lo nuevos clientes, y en marzo, como fecha tope, para los de siempre.

Hay que decir que en el segmento de tags, encontramos también una de las herramientas más populares, Google Analitics, utilizada masivamente entre cualquiera que tenga una página web para su uso interno.

Otras herramientas de análisis como Omniture o Visual Sciences empiezan a tomar más peso dentro de las compañías, que incluso están usando estos datos en principio de uso interno para mostrar información sobre sus webs a socios y anunciantes, dada la gran cantidad de variantes y comparaciones que se pueden manejar con estas herramientas.

Difusión o audiencia

Para Bermejo, la principal diferencia de estos sistemas tags es que pueden servir para saber cuántas páginas se han visto pero están lejos de ofrecer una visión fiable acerca de cuántos usuarios nos han visitado. "Miden cosas diferentes. Los tags miden la difusión, mientras que los paneles dan cifras de audiencias", señala este experto para quien los sistemas basados en el datos de servidores son incapaces de diferenciar si detrás de una misma IP hay varios usuarios, o si ese mismo usuario ha vuelto a acceder a una misma página pero desde otro ordenador.

Aquí entra en juego la otra gran metodología, la de los paneles, que se encuadran dentro del modelo UserCentric. Estos sistemas siguen el mismo proceso que la medición de audiencias que la televisión: se eligen unos panelistas, se estudia sus costumbres de navegación y se extrapola al resto de la población.

Nielsen Netrating es el más conocido en España, donde ha estado solo hasta ahora, cuando parece que su principal competidor ComScore está preparando su desembarque inmediato.

La principal crítica que se hace a estos sistemas es que aún tienen una muestra de población pequeña. Nielsen en España amplió en el mes de marzo sus panelistas a 16.000 usuarios en el hogar, y por primera vez, ha empezado a medir usuarios desde el trabajo, de los que tiene una muestra de 1.000.

Esta es una de las grandes lagunas que se están achacando a Nielsen en EE UU donde muchas webs, especialmente los medios de comunicación, se quejan de que la mayoría de sus lectores se conectan desde el trabajo, como en el citado ejemplo de Forbes.com

Otro de sus grandes fallos es que tampoco contabilizan los visitantes de otros países pues sólo se fijan en el panel nacional, lo que también merma la audiencia de las webs más internacionales.

Éxito de los paneles

Pese a estos aspectos, Nielsen y Comscore se han convertido en los principales referentes en la medición de audiencias en Internet, en gran parte porque son los más difíciles de manipular. Todos los datos están en manos de la empresa que mide, que es la única que tiene contacto con el panel de usuarios. Y, además, este sistema permite obtener algunos datos sobre quien está detrás de la dirección IP, su sexo, localidad, estatus social...etc.

Es una de las pocas opciones que hay en Internet de obtener datos sociodemográficos, junto con las encuestas. En España, la AIMC es quien realiza el principal estudio que publica EGM para conocer a los internautas y las webs más visitadas, pero este sistema tampoco parece demasiado fidedigno a ojos de las empresas de medición, ni de las propias webs.

Estas encuestas se realizan con entrevistas aleatorios a hogares en el caso de los informes de audiencias de EGM, que están en torno las 15.000 encuestas por cada dos meses, donde según Ferreira, las grandes marcas juegan con ventaja, pues son las primeras que vienen a la cabeza de los encuestados en una entrevista sorpresa.

Entre tantos datos dispares, el sector publicitario tiene su propio sistema para saber qué impacto tienen sus campañas publicitarias gracias a los Adservers, unos servidores exclusivos que registran mediante tags todos los clics y visitas que han tenido sus anuncios en las distintas páginas webs.

Este es sistema se utiliza durante las campañas y posteriormente, para medir el impacto de la publicidad. Con un sólo servidor se puede contabilizar todo una campaña internacional, cuyos datos se suelen cotejar con datos de terceros sobre usuarios únicos, páginas vistas, y demás.

Su utilidad es sencillamente publicitaria, pero sus datos han cobrando una gran relevancia, lo que está provocando grandes movimientos en el sector como la compra de Double Click por parte de Google.

Rating en Internet

¿Cuántas personas entraron en Forbes.com el pasado septiembre? Esta pregunta que debería tener una respuesta sencilla resulta casi imposible de responder. Nielsen Netratings asegura que 7,5 millones de personas diferentes (usuarios únicos) visitaron la edición digital de esta revista, sin embargo, ComScore calcula que sólo fueron 5,8 millones de usuarios, mientras que los datos internos del Forbes.com dicen que llegaron a 11,6 millones de visitantes de Estados Unidos.

Los anunciantes no entienden que haya tanta diferencia entre los sistemas

El acuerdo con Nielsen puede ser clave para dar credibilidad a la OJD
El caso de Forbes, del que se hacía eco The New York Times en un artículo donde se habla de las contradicciones de los sistemas de medición de audiencias online, no es nuevo y es replicable a cualquier web. Desde que Internet existe, la guerra entre los distintos sistemas para imponerse como el más fiable no ha cesado.

En un principio, Internet se presentó como la herramienta perfecta para monitorizar al usuario, para conocer sus hábitos y hacer una perfecta radiografía de quién está detrás del ordenador, pero la realidad ha demostrado todo lo contrario. "Nos decían que en Internet se podía medir todo, pero no es verdad. Las mediciones online resultan especialmente complicadas", asegura Fernando Bermejo, profesor de la Universidad Rey Juan Carlos, y autor de La Medición de Audiencias en Internet. Su tesis se publicó en Estados Unidos antes que en España, y para su portada eligió un famoso chiste publicado por la revista New Yorker en el que se pueden a ver dos perros frente a un ordenador y uno le dice a otro: "En Internet, nadie sabe que eres un perro", que expresa muy bien algunas de las lagunas de las actuales metodologías.

Los anunciantes, las centrales de medios y los medios de comunicación se han cansado de los datos dispares y en los últimos meses se han disparado las iniciativas para que la industria llegue a un acuerdo. En Estados Unidos, creen que el primer paso hacia la transparencia pasa por la auditoría, y desde el pasado mes de abril,se ha propuesto que Media Rating Council (MRC), una entidad neutral, certifique las audiencias online de los sistemas de paneles de Nielsen y Comscore como ya lo hace con la televisión.

Por un estándar común

En España, la asociación de publicidad interactiva IAB junto con la Asociación de Investigación de los Medios de Comunicación (AIMC) han creado un grupo de trabajo para establecer unas medidas comunes que compartan los distintos medios. Y en esta misma línea, la IAB y su homóloga la Asociación Europea de Publicidad Interactiva (EIAA), acaban de firmar un acuerdo para establecer "el primer sistema de medición estándar internacional que definirá las audiencias interactivas, de una manera concreta y de fácil uso", según describe la nota oficial.

El principal disgusto de los anunciantes es que quieren más transparencia en los datos. Esto no significa que vivamos en la oscuridad y las mentiras, pero cada método tiene sus limitaciones y se está produciendo mucha confusión.

Los primeros sistemas que se empezaron a utilizar fueron, los englobados dentro del concepto de WebCentric. A este segmento pertenecen las metodologías que toman los datos de los navegadores o de los servidores. Los más antiguos son los logs, que funcionan con un pequeño fichero que recoge todas las transacciones que se realizan en el servidor del sitio web en el que quedan registrados las idas y venidas de los usuarios.

En principio, parecían los datos más fiables, pero estos datos son muy manipulables pues están en las manos de cada sitio web y resultan incontrolables para una empresa externa. Además, consumen demasiados recursos para las webs con mucha audiencia, lo que ha hecho que caigan en desuso.

Los tags

Los tags, o las marcas, es una de las metodologías más extendida que consiste en que las empresas de medición introducen un pequeño código, un tag, en cada una de las páginas del sitio web. Cada vez que un PC entra en una de las páginas marcadas, este código envía al servidor de mediciones todos los datos sobre su visita. "Si el tag está bien puesto en todas las páginas de un sitio (al final de la página, con un solo tag por página, etc.), y el software que lo gestiona en el servidor es bueno, es uno de los sistemas de medición más fiables", opina Miguel A. Díez Ferreira, consultor de Internet y autor del blog El Analista que publica ELPAIS.com.

Este es el sistema que usa la OJD Interactiva para sus análisis. Hasta ahora tenía una tecnología propia que va a abandonar por la de Nielsen, que aunque es más conocido por sus paneles, también cuenta con dos herramientas censales: Nielsen Site Census, que sólo sirve para obtener datos internos de una web y la llamada Market Intelligence, con validez pública, que ahora además va a estar auditada por la OJD.

Este es un paso muy importante pues hasta ahora la gran queja de Nielsen y otros era que en España se mezclaba la medición y la certificación, algo que resultaba poco imparcial.

Gracias a este acuerdo, OJD y Nielsen han pasado de competidores a socios y lo que supone que OJD va a dejar definitivamente la medición de audiencias en Internet, en la que ha invertido mucho dinero y tiempo. De hecho, en los últimos años ha cambiado de sistemas de medición hasta en tres ocasiones, y con este acuerdo, su último gran proyecto, conocido como TAO, también queda finalmente abandonado.

Como fruto del uso de la herramienta Market Intelligence, OJD Interactiva acaba de aprobar nuevas normas para todos sus clientes, en la que se describe cómo usar los tags o qué páginas deben marcarse. Las nuevas normas empezarán aplicarse en el mes de enero para lo nuevos clientes, y en marzo, como fecha tope, para los de siempre.

Hay que decir que en el segmento de tags, encontramos también una de las herramientas más populares, Google Analitics, utilizada masivamente entre cualquiera que tenga una página web para su uso interno.

Otras herramientas de análisis como Omniture o Visual Sciences empiezan a tomar más peso dentro de las compañías, que incluso están usando estos datos en principio de uso interno para mostrar información sobre sus webs a socios y anunciantes, dada la gran cantidad de variantes y comparaciones que se pueden manejar con estas herramientas.

Difusión o audiencia

Para Bermejo, la principal diferencia de estos sistemas tags es que pueden servir para saber cuántas páginas se han visto pero están lejos de ofrecer una visión fiable acerca de cuántos usuarios nos han visitado. "Miden cosas diferentes. Los tags miden la difusión, mientras que los paneles dan cifras de audiencias", señala este experto para quien los sistemas basados en el datos de servidores son incapaces de diferenciar si detrás de una misma IP hay varios usuarios, o si ese mismo usuario ha vuelto a acceder a una misma página pero desde otro ordenador.

Aquí entra en juego la otra gran metodología, la de los paneles, que se encuadran dentro del modelo UserCentric. Estos sistemas siguen el mismo proceso que la medición de audiencias que la televisión: se eligen unos panelistas, se estudia sus costumbres de navegación y se extrapola al resto de la población.

Nielsen Netrating es el más conocido en España, donde ha estado solo hasta ahora, cuando parece que su principal competidor ComScore está preparando su desembarque inmediato.

La principal crítica que se hace a estos sistemas es que aún tienen una muestra de población pequeña. Nielsen en España amplió en el mes de marzo sus panelistas a 16.000 usuarios en el hogar, y por primera vez, ha empezado a medir usuarios desde el trabajo, de los que tiene una muestra de 1.000.

Esta es una de las grandes lagunas que se están achacando a Nielsen en EE UU donde muchas webs, especialmente los medios de comunicación, se quejan de que la mayoría de sus lectores se conectan desde el trabajo, como en el citado ejemplo de Forbes.com

Otro de sus grandes fallos es que tampoco contabilizan los visitantes de otros países pues sólo se fijan en el panel nacional, lo que también merma la audiencia de las webs más internacionales.

Éxito de los paneles

Pese a estos aspectos, Nielsen y Comscore se han convertido en los principales referentes en la medición de audiencias en Internet, en gran parte porque son los más difíciles de manipular. Todos los datos están en manos de la empresa que mide, que es la única que tiene contacto con el panel de usuarios. Y, además, este sistema permite obtener algunos datos sobre quien está detrás de la dirección IP, su sexo, localidad, estatus social...etc.

Es una de las pocas opciones que hay en Internet de obtener datos sociodemográficos, junto con las encuestas. En España, la AIMC es quien realiza el principal estudio que publica EGM para conocer a los internautas y las webs más visitadas, pero este sistema tampoco parece demasiado fidedigno a ojos de las empresas de medición, ni de las propias webs.

Estas encuestas se realizan con entrevistas aleatorios a hogares en el caso de los informes de audiencias de EGM, que están en torno las 15.000 encuestas por cada dos meses, donde según Ferreira, las grandes marcas juegan con ventaja, pues son las primeras que vienen a la cabeza de los encuestados en una entrevista sorpresa.

Entre tantos datos dispares, el sector publicitario tiene su propio sistema para saber qué impacto tienen sus campañas publicitarias gracias a los Adservers, unos servidores exclusivos que registran mediante tags todos los clics y visitas que han tenido sus anuncios en las distintas páginas webs.

Este es sistema se utiliza durante las campañas y posteriormente, para medir el impacto de la publicidad. Con un sólo servidor se puede contabilizar todo una campaña internacional, cuyos datos se suelen cotejar con datos de terceros sobre usuarios únicos, páginas vistas, y demás.

Su utilidad es sencillamente publicitaria, pero sus datos han cobrando una gran relevancia, lo que está provocando grandes movimientos en el sector como la compra de Double Click por parte de Google.

Fidelización en la Web

La Web es a la vez un mundo de sorpresas y desilusiones, es como navegar en un mar lleno de basura, contaminado, encontrando sólo a veces corales y perlas. En este artículo abordamos el problema de las premisas básicas para diseñar buenos sitios Web. Según Jakob Nielsen [Nielsen 1999], la Web tuvo su propio problema del año 2000, producto de su tamaño y rapidez de crecimiento. A esto debemos agregarle la dinamicidad de la Web, debido a la cual más de la mitad de la páginas han sido cambiadas o creadas en los últimos seis meses. A continuación extrapolamos el ejemplo de Nielsen en 1998. Hasta las estimaciones menos exageradas indican que el año 2003 el número de sitios Web llegará a los 100 millones. Esto significa que hay que diseñar tantos sitios como los que ahora hay en la Web en los próximos 12 meses. Si tomamos en cuenta que hay a lo más 200 mil profesionales (de verdad) en interfaces de usuario (IU) y diseño de Webs en el mundo, esto indica que cada uno de ellos debería diseñar aproximadamente 5 sitios por semana. Por supuesto que esto no ocurrirá y por lo tanto hay tres posibles soluciones:

que sea posible diseñar sitios razonables sin ser experto en IUs;
capacitar más gente en buen diseño de Web; y
vivir con sitios mal diseñados que son difíciles de usar.
De acuerdo a Nielsen, la última opción es inaceptable, pues en ese caso la Web dejará de ser usable y por lo tanto menos popular. Sin embargo esto es lo que ocurre en la gran mayoría de los sitios.
En varias ocasiones, en la vida real, las personas se ven dentro de ambientes desorganizados, donde las opciones de navegación dentro del lugar no son claras. Hablando hipotéticamente, si un comprador se viera en la necesidad de adquirir algunos productos y tuviera ante si la opción de hacerlo en un ambiente desorganizado y lleno de situaciones que impidieran que realizara su propósito, y su otra opción fuera completar su compra en un lugar donde el usuario fuera siempre la prioridad y todo en el local estuviera para servirle a esa persona, ¿dónde compraría este usuario? Lo más seguro es que lo haría en el último lugar que se mencionó.

En el caso anterior estamos hablando de una tienda física, pero si hacemos algunos ajustes al escenario y nos trasladamos a la web, es muy probable que reconozcamos algunos sitios de comercio electrónico que ejemplifiquen ambos extremos¿Cuántas veces nos hemos enfrentado a sitios web con una pobre organización, con un soporte de ayuda pésimo, dificil de ubicar -al sitio- y dificil de hallar las cosas que queremos en él? Seguramente muchas veces, pues desafortunadamente parece que una gran cantidad de sitios web hacen todo lo posible porque el usuario no logre de una manera fácil las metas que se propone cuando decide visitar dicho lugar. Y esto no se limita en lo absoluto a sitios de comercio electrónico. El problema se extiende a todas las áreas del conocimiento humano representadas en la Web.

La elaboración misma de una página web es de hecho un proceso bastante simple. El lenguaje en el que están basadas la gran mayoría de los documentos en la Web es el HTML, la lingua franca del World Wide Web. Este es un lenguaje bastante simple de usar, pero incluso para crear un documento en HTML no es necesario saber el lenguaje mismo. Existen una gran cantidad de herramientas, algunas más sofisticadas que otras, que nos permiten escribir un documento listo para publicar en la web. En particular, las herramientas del tipo WYSIWIG (What You See Is What You Get, lo que ves es lo que obtienes) para generar HTML están bastante diseminadas, e incluso los procesadores de texto más populares (MS Word, WordPerfect, StarWriter, por nombrar a algunos) dan la opción de guardar los archivos directamente en HTML. Algunos de estos editores incluso tienen un wizard que ayuda a publicar el documento en la Web.

Diseñar sitios pequeños en forma razonable puede lograrse en base a moldes que pueden proveer las herramientas de edición de páginas HTML. También se pueden tener convenciones acerca de algunas decisiones de diseño básicas, como la ubicación de algún logo o la interacción inicial. Estas convenciones deben ser decididas por la comunidad y no por grandes compañías, para evitar el problema de diseños propietarios, algo que lamentablemente ya existe en las interfaces gráficas básicas.

Sin embargo, todas estas facilidades para la creación de páginas web no se ha traducido en una mejora en cuánto a la experiencia del usuario. La cantidad de sitios web es inmensa, pero sólo un pequeño porcentaje de ellos han seguido normativas para conseguir que la información que ofrecen sea fácilmente accesible, permitiendo al usuario que logre sus objetivos. Básicamente los sitios no son usables ya que presentan problemas de usabilidad.
La usabilidad es un concepto que engloba a una serie de métricas y métodos que buscan hacer que un sistema sea fácil de usar y de aprender. Al hablar de sistema la referencia se hace a cualquier dispositivo que tenga que ser operado por un usuario. En esta categoría caen los sitios web, aplicaciones de software, hardware, etc.
Siguiendo a Nielsen, capacitar a mucha gente es difícil de lograr, pero al menos sería bueno saber las reglas mínimas para diseñar un buen sitio Web. Las reglas más importantes están basadas en el sentido común, el cual como sabemos es el menos común de los sentidos. Ellas se refieren tanto al contenido como a la forma (presentación) del sitio. ¿Qué es más importante, la forma o el contenido? Por supuesto que el contenido dirán ustedes, pero en realidad no importa si no podemos llegar a él. Es decir un sitio es usable, sólo si lo podemos encontrar. ¿Como podemos encontrar un sitio? Hay tres formas principales:

Directa: conocemos la dirección del sitio ya sea por publicidad en medios de comunicación tradicionales o por medio de otra persona.
Navegando: para esto deben haber enlaces al sitio, ya sea mediante publicidad en Internet o por otras razones.
Usando un buscador: para esto el buscador debe haber previamente encontrado el sitio.
La primera forma es cara si usamos publicidad o lenta si esperamos a que las personas pasen la buena nueva. La segunda forma es la natural, pero sólo llegaremos a los sitios con más recursos o que son populares. La tercera opción es la más sencilla y además es casi la única para sitios nuevos o sitios pequeños. Al concepto de estar en la Web y poder ser encontrado y visto lo llamamos ubicuidad. Ubicuidad tiene dos partes: el poder encontrar el sitio, que llamamos buscabilidad. Para usar un sitio Web despues de encontrarlo, hay que poder verlo. Al concepto de poder ver un sitio lo llamamos visibilidad.
Finalmente podremos usarlo. Es decir, hay un orden temporal causal y cada paso puede tener la misma importancia, pero sin el primero no tenemos el segundo y sin el segundo el tercero. La usabilidad tiene, como ya mencionamos, tiene dos aspectos centrales: el contenido y la estética (la forma, el diseño gráfico), aunque la visibilidad también afecta la usabilidad. Su sitio debe tener algún interés si la persona ha llegado hasta aquí. Por lo tanto el contenido debe tener elementos legibles y comprensibles, y coherencia de la navegación y de la funcionalidad en todas las páginas. La semántica del contenido debe responder a la pregunta ¿cuál es mi audiencia objetivo?. ¿Es su prosa asequible a todo el mundo? ¿Es el idioma usado una barrera para sus clientes? Su diseño debe ser estético pero sin sacrificar los puntos anteriores. Esto significa cosas obvias como no usar fondos que afecten la legibilidad o recargar la página con elementos distractivos. El diseño debe ser elegante y simple, como en Google, pero también puede ser feo y funcional como Yahoo.

Aún no entendemos los sitios que tienen en su portada una presentación Flash (y con música). Ciertamente son bonitos, pero sólo enfatizan lo visual, mientras el contenido, que debiera ser lo más importante, pasa a segundo plano. ¿Han visto el diseño de Yahoo!? Es simple, tal vez demasiado, casi feo. ¿Porqué no hay más imágenes? La respuesta debiera ser obvia: es el sitio más visitado del planeta y debe ser rápido, muy rápido (centésimas de segundo), de otro modo no serviría. ¿Se imaginan Yahoo! con una presentación Flash? Ya habría salido del mercado. El balance entre contenido y presentación es vital, pero al final el contenido es lo importante. La interfaz no debe ser una barrera para poder entender el contenido. Texto o imágenes animadas sólo distraen y no aportan contenido. ¡Un sitio Web no es el lugar para que un programador demuestre cuán bien domina Java o el último software de diseño gráfico!. Recuerde además que la mayoría de los usuarios no lo lee todo, sino que hace una lectura rápida, seleccionando texto o enlaces destacados.

Su sitio ha sido visto, ¿pero volverá esta persona a él? Para eso debe tener algún contenido o servicio que se necesite en forma periódica, que sea adictivo en el buen sentido de la palabra y que genere una comunidad virtual de personas con intereses comunes. La usabilidad de un sitio genera lo más importante: que la persona vuelva, es decir genera fidelidad. Éste es el desafío más difícil, el de la seducción permanente, aunque algunas personas postulan que pueden haber sitios que subsisten en base muchas visitas únicas.

Fidelización en la Web

La Web es a la vez un mundo de sorpresas y desilusiones, es como navegar en un mar lleno de basura, contaminado, encontrando sólo a veces corales y perlas. En este artículo abordamos el problema de las premisas básicas para diseñar buenos sitios Web. Según Jakob Nielsen [Nielsen 1999], la Web tuvo su propio problema del año 2000, producto de su tamaño y rapidez de crecimiento. A esto debemos agregarle la dinamicidad de la Web, debido a la cual más de la mitad de la páginas han sido cambiadas o creadas en los últimos seis meses. A continuación extrapolamos el ejemplo de Nielsen en 1998. Hasta las estimaciones menos exageradas indican que el año 2003 el número de sitios Web llegará a los 100 millones. Esto significa que hay que diseñar tantos sitios como los que ahora hay en la Web en los próximos 12 meses. Si tomamos en cuenta que hay a lo más 200 mil profesionales (de verdad) en interfaces de usuario (IU) y diseño de Webs en el mundo, esto indica que cada uno de ellos debería diseñar aproximadamente 5 sitios por semana. Por supuesto que esto no ocurrirá y por lo tanto hay tres posibles soluciones:

que sea posible diseñar sitios razonables sin ser experto en IUs;
capacitar más gente en buen diseño de Web; y
vivir con sitios mal diseñados que son difíciles de usar.
De acuerdo a Nielsen, la última opción es inaceptable, pues en ese caso la Web dejará de ser usable y por lo tanto menos popular. Sin embargo esto es lo que ocurre en la gran mayoría de los sitios.
En varias ocasiones, en la vida real, las personas se ven dentro de ambientes desorganizados, donde las opciones de navegación dentro del lugar no son claras. Hablando hipotéticamente, si un comprador se viera en la necesidad de adquirir algunos productos y tuviera ante si la opción de hacerlo en un ambiente desorganizado y lleno de situaciones que impidieran que realizara su propósito, y su otra opción fuera completar su compra en un lugar donde el usuario fuera siempre la prioridad y todo en el local estuviera para servirle a esa persona, ¿dónde compraría este usuario? Lo más seguro es que lo haría en el último lugar que se mencionó.

En el caso anterior estamos hablando de una tienda física, pero si hacemos algunos ajustes al escenario y nos trasladamos a la web, es muy probable que reconozcamos algunos sitios de comercio electrónico que ejemplifiquen ambos extremos¿Cuántas veces nos hemos enfrentado a sitios web con una pobre organización, con un soporte de ayuda pésimo, dificil de ubicar -al sitio- y dificil de hallar las cosas que queremos en él? Seguramente muchas veces, pues desafortunadamente parece que una gran cantidad de sitios web hacen todo lo posible porque el usuario no logre de una manera fácil las metas que se propone cuando decide visitar dicho lugar. Y esto no se limita en lo absoluto a sitios de comercio electrónico. El problema se extiende a todas las áreas del conocimiento humano representadas en la Web.

La elaboración misma de una página web es de hecho un proceso bastante simple. El lenguaje en el que están basadas la gran mayoría de los documentos en la Web es el HTML, la lingua franca del World Wide Web. Este es un lenguaje bastante simple de usar, pero incluso para crear un documento en HTML no es necesario saber el lenguaje mismo. Existen una gran cantidad de herramientas, algunas más sofisticadas que otras, que nos permiten escribir un documento listo para publicar en la web. En particular, las herramientas del tipo WYSIWIG (What You See Is What You Get, lo que ves es lo que obtienes) para generar HTML están bastante diseminadas, e incluso los procesadores de texto más populares (MS Word, WordPerfect, StarWriter, por nombrar a algunos) dan la opción de guardar los archivos directamente en HTML. Algunos de estos editores incluso tienen un wizard que ayuda a publicar el documento en la Web.

Diseñar sitios pequeños en forma razonable puede lograrse en base a moldes que pueden proveer las herramientas de edición de páginas HTML. También se pueden tener convenciones acerca de algunas decisiones de diseño básicas, como la ubicación de algún logo o la interacción inicial. Estas convenciones deben ser decididas por la comunidad y no por grandes compañías, para evitar el problema de diseños propietarios, algo que lamentablemente ya existe en las interfaces gráficas básicas.

Sin embargo, todas estas facilidades para la creación de páginas web no se ha traducido en una mejora en cuánto a la experiencia del usuario. La cantidad de sitios web es inmensa, pero sólo un pequeño porcentaje de ellos han seguido normativas para conseguir que la información que ofrecen sea fácilmente accesible, permitiendo al usuario que logre sus objetivos. Básicamente los sitios no son usables ya que presentan problemas de usabilidad.
La usabilidad es un concepto que engloba a una serie de métricas y métodos que buscan hacer que un sistema sea fácil de usar y de aprender. Al hablar de sistema la referencia se hace a cualquier dispositivo que tenga que ser operado por un usuario. En esta categoría caen los sitios web, aplicaciones de software, hardware, etc.
Siguiendo a Nielsen, capacitar a mucha gente es difícil de lograr, pero al menos sería bueno saber las reglas mínimas para diseñar un buen sitio Web. Las reglas más importantes están basadas en el sentido común, el cual como sabemos es el menos común de los sentidos. Ellas se refieren tanto al contenido como a la forma (presentación) del sitio. ¿Qué es más importante, la forma o el contenido? Por supuesto que el contenido dirán ustedes, pero en realidad no importa si no podemos llegar a él. Es decir un sitio es usable, sólo si lo podemos encontrar. ¿Como podemos encontrar un sitio? Hay tres formas principales:

Directa: conocemos la dirección del sitio ya sea por publicidad en medios de comunicación tradicionales o por medio de otra persona.
Navegando: para esto deben haber enlaces al sitio, ya sea mediante publicidad en Internet o por otras razones.
Usando un buscador: para esto el buscador debe haber previamente encontrado el sitio.
La primera forma es cara si usamos publicidad o lenta si esperamos a que las personas pasen la buena nueva. La segunda forma es la natural, pero sólo llegaremos a los sitios con más recursos o que son populares. La tercera opción es la más sencilla y además es casi la única para sitios nuevos o sitios pequeños. Al concepto de estar en la Web y poder ser encontrado y visto lo llamamos ubicuidad. Ubicuidad tiene dos partes: el poder encontrar el sitio, que llamamos buscabilidad. Para usar un sitio Web despues de encontrarlo, hay que poder verlo. Al concepto de poder ver un sitio lo llamamos visibilidad.
Finalmente podremos usarlo. Es decir, hay un orden temporal causal y cada paso puede tener la misma importancia, pero sin el primero no tenemos el segundo y sin el segundo el tercero. La usabilidad tiene, como ya mencionamos, tiene dos aspectos centrales: el contenido y la estética (la forma, el diseño gráfico), aunque la visibilidad también afecta la usabilidad. Su sitio debe tener algún interés si la persona ha llegado hasta aquí. Por lo tanto el contenido debe tener elementos legibles y comprensibles, y coherencia de la navegación y de la funcionalidad en todas las páginas. La semántica del contenido debe responder a la pregunta ¿cuál es mi audiencia objetivo?. ¿Es su prosa asequible a todo el mundo? ¿Es el idioma usado una barrera para sus clientes? Su diseño debe ser estético pero sin sacrificar los puntos anteriores. Esto significa cosas obvias como no usar fondos que afecten la legibilidad o recargar la página con elementos distractivos. El diseño debe ser elegante y simple, como en Google, pero también puede ser feo y funcional como Yahoo.

Aún no entendemos los sitios que tienen en su portada una presentación Flash (y con música). Ciertamente son bonitos, pero sólo enfatizan lo visual, mientras el contenido, que debiera ser lo más importante, pasa a segundo plano. ¿Han visto el diseño de Yahoo!? Es simple, tal vez demasiado, casi feo. ¿Porqué no hay más imágenes? La respuesta debiera ser obvia: es el sitio más visitado del planeta y debe ser rápido, muy rápido (centésimas de segundo), de otro modo no serviría. ¿Se imaginan Yahoo! con una presentación Flash? Ya habría salido del mercado. El balance entre contenido y presentación es vital, pero al final el contenido es lo importante. La interfaz no debe ser una barrera para poder entender el contenido. Texto o imágenes animadas sólo distraen y no aportan contenido. ¡Un sitio Web no es el lugar para que un programador demuestre cuán bien domina Java o el último software de diseño gráfico!. Recuerde además que la mayoría de los usuarios no lo lee todo, sino que hace una lectura rápida, seleccionando texto o enlaces destacados.

Su sitio ha sido visto, ¿pero volverá esta persona a él? Para eso debe tener algún contenido o servicio que se necesite en forma periódica, que sea adictivo en el buen sentido de la palabra y que genere una comunidad virtual de personas con intereses comunes. La usabilidad de un sitio genera lo más importante: que la persona vuelva, es decir genera fidelidad. Éste es el desafío más difícil, el de la seducción permanente, aunque algunas personas postulan que pueden haber sitios que subsisten en base muchas visitas únicas.

Community and User-Generated Content: Too Few Users

User-generated content can be a great supplement to your own content. The most famous example is Amazon's book reviews, which date from 1996 (not exactly "2.0."). Communities, which were the main recommendation in the 1997 book Net.Gain, are also an old idea.
Community features are particularly useful on intranets, and many of the Intranet Design Annual winners offer them. The reasons communities work better on intranets also explains why they're often less useful on the open Internet:

A company's employees are an actual community with a crucial shared interest: succeeding in business.
Employees are pre-vetted: they've been hired and thus presumably have a minimum quality level. In contrast, on the Web, most people are bozos and not worth listening to.
Although some intranet communities — such as those around internal classified ads — are aimed at lightening up the workplace, most intranet communities are tightly focused on company projects. Discussions stay on topic rather than wandering all over the map.
Intranet users are accountable for their postings and care about their reputation among colleagues and bosses. As a result, postings aim to be productive instead of destructive or flaming.
Small groups of people who know each other are less susceptible to social loafing, so more users contribute to intranet community features. In contrast, Internet communities suffer from participation inequality, where most users never contribute and the most active 1% of people dominate the discussions.
Realistically, most business tasks are too boring to support community features. The fact that the city Sanitation Department will pick up Christmas trees sometime after December 25 isn't likely to inspire a longing to discuss shared experiences on the department's site. Users will visit the site to find the pick-up dates and rules. Nonetheless, the Christmas tree pick-up page is an example of how government websites can offer taxpayers great ROI: if done right, this one page will save the city from answering endless phone calls — each costing $10 or more. Often, such boring, workhorse stuff is where the money is.

Community and User-Generated Content: Too Few Users

User-generated content can be a great supplement to your own content. The most famous example is Amazon's book reviews, which date from 1996 (not exactly "2.0."). Communities, which were the main recommendation in the 1997 book Net.Gain, are also an old idea.
Community features are particularly useful on intranets, and many of the Intranet Design Annual winners offer them. The reasons communities work better on intranets also explains why they're often less useful on the open Internet:

A company's employees are an actual community with a crucial shared interest: succeeding in business.
Employees are pre-vetted: they've been hired and thus presumably have a minimum quality level. In contrast, on the Web, most people are bozos and not worth listening to.
Although some intranet communities — such as those around internal classified ads — are aimed at lightening up the workplace, most intranet communities are tightly focused on company projects. Discussions stay on topic rather than wandering all over the map.
Intranet users are accountable for their postings and care about their reputation among colleagues and bosses. As a result, postings aim to be productive instead of destructive or flaming.
Small groups of people who know each other are less susceptible to social loafing, so more users contribute to intranet community features. In contrast, Internet communities suffer from participation inequality, where most users never contribute and the most active 1% of people dominate the discussions.
Realistically, most business tasks are too boring to support community features. The fact that the city Sanitation Department will pick up Christmas trees sometime after December 25 isn't likely to inspire a longing to discuss shared experiences on the department's site. Users will visit the site to find the pick-up dates and rules. Nonetheless, the Christmas tree pick-up page is an example of how government websites can offer taxpayers great ROI: if done right, this one page will save the city from answering endless phone calls — each costing $10 or more. Often, such boring, workhorse stuff is where the money is.

Findability

Findability ("recuperabilidad", "encontrabilidad"...) es la posibilidad de que determinada información sea encontrada, localizada, o recuperada. O lo que es lo mismo, la "accesibilidad" de un sitio o de un nodo web (no confundir con la Accesibilidad de los contenidos). En la "findability" intervienen el posicionamiento en motores e índices de búsqueda, la predisponibilidad de nuestro sitio a ser recuperado por motores de búsqueda (search engine optimization), la promoción que hayamos realizado (por correo electrónico, concursos, banners...), etc... Pero la "findability" también abarca los medios de que disponga nuestro sitio web para encontrar información dentro de este, es decir, buscadores locales, correcta arquitectura de la información, etc...

La Usabilidad de un sitio web está estrechamente relacionada con la "findability", ya que cuanto más sencillo resulte para el usuario navegar por un sitio web, mayores posibilidades tendrá de encontrar lo que busca.

Findability

Findability ("recuperabilidad", "encontrabilidad"...) es la posibilidad de que determinada información sea encontrada, localizada, o recuperada. O lo que es lo mismo, la "accesibilidad" de un sitio o de un nodo web (no confundir con la Accesibilidad de los contenidos). En la "findability" intervienen el posicionamiento en motores e índices de búsqueda, la predisponibilidad de nuestro sitio a ser recuperado por motores de búsqueda (search engine optimization), la promoción que hayamos realizado (por correo electrónico, concursos, banners...), etc... Pero la "findability" también abarca los medios de que disponga nuestro sitio web para encontrar información dentro de este, es decir, buscadores locales, correcta arquitectura de la información, etc...

La Usabilidad de un sitio web está estrechamente relacionada con la "findability", ya que cuanto más sencillo resulte para el usuario navegar por un sitio web, mayores posibilidades tendrá de encontrar lo que busca.

domingo, noviembre 04, 2007

Nielsen: "El éxito de You Tube y los blogs prueba el valor de la simplicidad"


Jacob Nielsen es uno de los hombres que más ha influido en la construcción de Internet tal y como la conocemos, pues ha marcado las tendencias de diseño seguidas por los principales sitios web. Todas sus teorías giran en torno a la sencillez para lograr que el usuario pueda encontrar lo que busca de un vistazo, y sepa manejarse en el sitio desde el primer momento que accede a él.

El éxito de los blogs y de sitios como YouTube, que han democratizado la publicación de contenidos en Internet, vienen a confirmar las teorías de Nielsen, quien impartió el pasado domingo una conferencia en Barcelona, organizada por su consultora especializada en usabilidad.

P:¿Qué tres errores debería evitar a toda costa cualquier página web?

R: Lo opuesto a las tres características que mencioné como ejemplo de buena usabilidad:

(a) Navegación difícil y una organización de la información confusa que se estructure de acuerdo con los criterios de la compañía en vez de pensar en el usuario. Esto dificulta encontrar cualquier cosa en un sitio web y hace que la gente desista rápidamente.

(b) Un contenido marketinero (escrito en lenguaje de marketing, disfrazando las palabras y ensalzando al máximo las bondades de los productos) pero pobre en información específica que los clientes quieren. Por ejemplo, un sitio que no muestra el precio entre las primeras cosas.

(c) Transacciones complicadas que exigen al usuario seguir muchos pasos para conseguir sus objetivos. Por ejemplo, un sitio de comercio electrónico que requiere del usuario que se registre, elija un nombre y una contraseña antes de poder echar un vistazo. Imagina que la tienda de la esquina te pediera una contraseña antes de venderte un tomate.

P: ¿Qué páginas web resaltaría usted como ejemplos de usabilidad a imitar?

R: Casi todos los grandes websites son buenos ejemplos de usabilidad: Google, Yahoo, eBay. Amazon.com, Craigslist. Se han visto forzados a ser buenos porque era la única forma en que podían hacer crecer su base de usuarios.

Desgraciadamente, hoy, no creo que Amazon.com sea un gran ejemplo de usabilidad. Insertan demasiadas características en sus páginas. Este diseño funciona bien para Amazon porque es una compañía conocida donde la gente ha comprado muchas veces en el pasado. Para Amazon es probablemente más importante ofrecer muchas opciones a usuarios experimentados que atraer a nuevos usuarios. Pero la mayoría de los websites sólo tiene una pequeña fracción de los clientes a los que potencialmente podrían dar servicio, por lo que deberían todavía dar aún mayor prioridad a la simplicidad para los nuevos usuarios.

P: ¿Sigue manteniendo que los usuarios leen un 25% más lentos en las pantallas de ordenador ahora que la mayoría ya usan los 1024 píxeles?

R: La lectura en las pantallas de los ordenadores ha mejorada alrededor un 8%, pero no es mucho teniendo en cuenta que los monitores son más grandes. El uso de monitores de pantalla plana y de la tecnología de fuente como ClearType en Windows XP y Vista que resaltan los caracteres han sido los principales motores de esta mejora.

Las pantallas más grandes tienen la ventaja de que los usuarios pueden explorar a través de más opciones sin hacer scrolling y esto acelera la interacción. Sin embargo, necesitamos monitores que sean mucho más grandes que 1024x768 píxeles para que en un pantallazo tengamos más información que una página de periódico.

En fin que todavía es más lento utilizar los ordenadores que el papel y de hecho, los usuarios prefieren no leer textos muy largos online.

P: Cada vez se usan más videos e imágenes en los sitios web. ¿Cree que esta tendencia contradice su teoría de la simplicidad?

R: Es posible usar tanto fotos como vídeos y tener un sitio sencillo. Las pautas originales de la usabilidad en el entorno Web de 1994 son muy negativas en lo que se refiere al uso de gráficos y vídeos, en la medida que las imágenes grandes tienen un tiempo de descarga mayor y que los vídeos se visualizaban mal en ventanas del tamaño de un sello, que eran lo último hace un tiempo. Ahora un mayor ancho de banda y una mejor tecnología de vídeo permiten utilizar más este tipo de medios. Esto no cambia el hecho de que deberíamos utilizarlos de una forma razonable. Las páginas repletas de vídeos sólo funcionan para sitios específicos de vídeos y no para sitios web de instituciones públicas o de empresas.

P: ¿Cree que las redes sociales, donde los usuarios son los propios creadores de contenido, deberían seguir las reglas de simplicidad?

R: Es verdad que hay mucho contenido generado por los usuarios, y que el crecimiento de este contenido prueba definitivamente el valor de la simplicidad, porque la explosión de escribir en Internet tiene su origen cuando los servicios de los weblog se hicieron sencillos así como la explosión del vídeo se produjo cuando YouTube facilitó colgar vídeos en Internet. Todo esto fue posible en el pasado pero, con una menor usabilidad, de forma que muy poca gente contribuyó a su contenido.

Lo que es más cuestionable es cuánta gente utiliza el volumen de contenido generado por el usuario. La mayor parte de este contenido no genera en realidad mucho tráfico porque es demasiado caótico y no es lo suficientemente interesante para otros usuarios. Si alguien quiere generar tráfico a sus contenidos, entonces ellos tienen que seguir las pautas de la usabilidad, al igual que lo hace cualquier otro sitio web. Pero si te conformas con llegar a tus cinco mejores amigos, entonces, la usabilidad no es importante: ellos ya te conocen y entienden la información, incluso si no es comprensible para los nuevos usuarios.

P: ¿Qué tendencias van a marcar el futuro de Internet?

R: El usuario móvil será importante. Admito que llevo diciendo esto desde hace varios años y el usuario móvil de servicios web es todavía una pequeña parte. La tecnología ya casi está, con las redes 3G suficientemente rápidas y algunos smartphones. Lo que faltan son los buenos servicios que hayan sido diseñados específicamente para los usuarios móviles. No podemos coger un sitio web ya establecido y acceder a él a través del teléfono; necesitamos versiones más reducidas de los sitios que sólo se centren en aquellos servicios que son más útiles para el usuario móvil.

Nielsen: "El éxito de You Tube y los blogs prueba el valor de la simplicidad"


Jacob Nielsen es uno de los hombres que más ha influido en la construcción de Internet tal y como la conocemos, pues ha marcado las tendencias de diseño seguidas por los principales sitios web. Todas sus teorías giran en torno a la sencillez para lograr que el usuario pueda encontrar lo que busca de un vistazo, y sepa manejarse en el sitio desde el primer momento que accede a él.

El éxito de los blogs y de sitios como YouTube, que han democratizado la publicación de contenidos en Internet, vienen a confirmar las teorías de Nielsen, quien impartió el pasado domingo una conferencia en Barcelona, organizada por su consultora especializada en usabilidad.

P:¿Qué tres errores debería evitar a toda costa cualquier página web?

R: Lo opuesto a las tres características que mencioné como ejemplo de buena usabilidad:

(a) Navegación difícil y una organización de la información confusa que se estructure de acuerdo con los criterios de la compañía en vez de pensar en el usuario. Esto dificulta encontrar cualquier cosa en un sitio web y hace que la gente desista rápidamente.

(b) Un contenido marketinero (escrito en lenguaje de marketing, disfrazando las palabras y ensalzando al máximo las bondades de los productos) pero pobre en información específica que los clientes quieren. Por ejemplo, un sitio que no muestra el precio entre las primeras cosas.

(c) Transacciones complicadas que exigen al usuario seguir muchos pasos para conseguir sus objetivos. Por ejemplo, un sitio de comercio electrónico que requiere del usuario que se registre, elija un nombre y una contraseña antes de poder echar un vistazo. Imagina que la tienda de la esquina te pediera una contraseña antes de venderte un tomate.

P: ¿Qué páginas web resaltaría usted como ejemplos de usabilidad a imitar?

R: Casi todos los grandes websites son buenos ejemplos de usabilidad: Google, Yahoo, eBay. Amazon.com, Craigslist. Se han visto forzados a ser buenos porque era la única forma en que podían hacer crecer su base de usuarios.

Desgraciadamente, hoy, no creo que Amazon.com sea un gran ejemplo de usabilidad. Insertan demasiadas características en sus páginas. Este diseño funciona bien para Amazon porque es una compañía conocida donde la gente ha comprado muchas veces en el pasado. Para Amazon es probablemente más importante ofrecer muchas opciones a usuarios experimentados que atraer a nuevos usuarios. Pero la mayoría de los websites sólo tiene una pequeña fracción de los clientes a los que potencialmente podrían dar servicio, por lo que deberían todavía dar aún mayor prioridad a la simplicidad para los nuevos usuarios.

P: ¿Sigue manteniendo que los usuarios leen un 25% más lentos en las pantallas de ordenador ahora que la mayoría ya usan los 1024 píxeles?

R: La lectura en las pantallas de los ordenadores ha mejorada alrededor un 8%, pero no es mucho teniendo en cuenta que los monitores son más grandes. El uso de monitores de pantalla plana y de la tecnología de fuente como ClearType en Windows XP y Vista que resaltan los caracteres han sido los principales motores de esta mejora.

Las pantallas más grandes tienen la ventaja de que los usuarios pueden explorar a través de más opciones sin hacer scrolling y esto acelera la interacción. Sin embargo, necesitamos monitores que sean mucho más grandes que 1024x768 píxeles para que en un pantallazo tengamos más información que una página de periódico.

En fin que todavía es más lento utilizar los ordenadores que el papel y de hecho, los usuarios prefieren no leer textos muy largos online.

P: Cada vez se usan más videos e imágenes en los sitios web. ¿Cree que esta tendencia contradice su teoría de la simplicidad?

R: Es posible usar tanto fotos como vídeos y tener un sitio sencillo. Las pautas originales de la usabilidad en el entorno Web de 1994 son muy negativas en lo que se refiere al uso de gráficos y vídeos, en la medida que las imágenes grandes tienen un tiempo de descarga mayor y que los vídeos se visualizaban mal en ventanas del tamaño de un sello, que eran lo último hace un tiempo. Ahora un mayor ancho de banda y una mejor tecnología de vídeo permiten utilizar más este tipo de medios. Esto no cambia el hecho de que deberíamos utilizarlos de una forma razonable. Las páginas repletas de vídeos sólo funcionan para sitios específicos de vídeos y no para sitios web de instituciones públicas o de empresas.

P: ¿Cree que las redes sociales, donde los usuarios son los propios creadores de contenido, deberían seguir las reglas de simplicidad?

R: Es verdad que hay mucho contenido generado por los usuarios, y que el crecimiento de este contenido prueba definitivamente el valor de la simplicidad, porque la explosión de escribir en Internet tiene su origen cuando los servicios de los weblog se hicieron sencillos así como la explosión del vídeo se produjo cuando YouTube facilitó colgar vídeos en Internet. Todo esto fue posible en el pasado pero, con una menor usabilidad, de forma que muy poca gente contribuyó a su contenido.

Lo que es más cuestionable es cuánta gente utiliza el volumen de contenido generado por el usuario. La mayor parte de este contenido no genera en realidad mucho tráfico porque es demasiado caótico y no es lo suficientemente interesante para otros usuarios. Si alguien quiere generar tráfico a sus contenidos, entonces ellos tienen que seguir las pautas de la usabilidad, al igual que lo hace cualquier otro sitio web. Pero si te conformas con llegar a tus cinco mejores amigos, entonces, la usabilidad no es importante: ellos ya te conocen y entienden la información, incluso si no es comprensible para los nuevos usuarios.

P: ¿Qué tendencias van a marcar el futuro de Internet?

R: El usuario móvil será importante. Admito que llevo diciendo esto desde hace varios años y el usuario móvil de servicios web es todavía una pequeña parte. La tecnología ya casi está, con las redes 3G suficientemente rápidas y algunos smartphones. Lo que faltan son los buenos servicios que hayan sido diseñados específicamente para los usuarios móviles. No podemos coger un sitio web ya establecido y acceder a él a través del teléfono; necesitamos versiones más reducidas de los sitios que sólo se centren en aquellos servicios que son más útiles para el usuario móvil.

miércoles, octubre 10, 2007

Escribir en Internet

El internauta no lee, scanea, esta probado que el monitor irrita, y por eso, es mucho mas incomodo para el usuario leer en el monitor que en un papel impreso.

El usuario scanea rápido poor las zonas mas caleintes de la paantalla, en busca de la información que les interesa. Las páginas web deben ser pensadas para ser scaneadas.
En este estilo de lectura todo elemento de información presentado en un sitio web compite con el resto para captar la atención del usuario y por ello es crucial evitar presentar información superflua. Se trata de reducir la carga cognitiva para que se produzca un procesamiento de la información eficiente y rápido, exactamente lo contrario que pretenden la mayoría de los libros impresos.

La lucha se dará también en el el terreno del mousse, con el cual el usuario juguetea y quiere clickear compulsivamente, para retenerlo deberemos ofrecerle cosas, el primer link que encuentren, del que perciban que tendrá alguna remota probabilidad de tener algún contenido cercano a lo que están buscando, será clickeado sin más análisis, la experiencia práctica y la investigación sistemática refuerzan esta idea. El arte de escribir para la Web no es el arte de crear contenidos para nuestros lectores, sino todo lo contrario, el arte de escribir para alguien deseoso de no-leer.


Para ello, la estructura de la información de un sitio web debe tener las siguientes características:

1. Los contenidos se deben estructurar mediante resúmenes y tablas de contenidos

2. El texto debe organizarse con palabras resaltadas, listas numeradas, líneas separadoras, etc. Los títulos y subtítulos deben ser claros, simples y concisos.

3. Los párrafos deben contener una única idea.

4. Utilizar estilo de redacción de pirámide invertida, comenzando por la conclusión y finalizando con los detalles. Así, opcionalmente la persona que desee profundizar puede seguir leyendo sin perjuicio del usuario que busca rápidamente la información.

5. Se deben utilizar la mitad de palabras que se usarían en la redacción de un texto común impreso.

6. Se debe utilizar lenguaje objetivo, sin exceso de adjetivos, palabras redundantes o afirmaciones no basadas en evidencias, es decir, lo contrario del lenguaje promocional.

7. Utilización de una combinación de colores de texto y fondo con suficiente contraste, texto claro sobre fondo oscuro o viceversa.

9. El lenguaje simple e informal es más adecuado que el elegante o formal, ya que la lectura es más rápida en el primero.

8. No se deben utilizar textos parpadeantes o deslizantes, dificultan la tarea de leer y hacen difícil prestar atención a otro punto de la página.

Un estudio de Nielsen y Morkes (1997) muestra que el lenguaje conciso y objetivo, así como una estructura ojeable, aumenta la usabilidad de un sitio web en un 124%, medida en tiempo utilizado para realizar la tarea, errores cometidos y recuerdo del usuario.

Estas recomendaciones de escritura son aplicables a casi todo tipo de contenidos. Sin embargo en algunos casos, como por ejemplo, webs con finalidades didácticas cuyos textos requieren de mayor profundización o tienen una finalidad especial (como algunos artículos de esta web) no es preciso seguir estas recomendaciones de manera tan estricta.

Escribir en Internet

El internauta no lee, scanea, esta probado que el monitor irrita, y por eso, es mucho mas incomodo para el usuario leer en el monitor que en un papel impreso.

El usuario scanea rápido poor las zonas mas caleintes de la paantalla, en busca de la información que les interesa. Las páginas web deben ser pensadas para ser scaneadas.
En este estilo de lectura todo elemento de información presentado en un sitio web compite con el resto para captar la atención del usuario y por ello es crucial evitar presentar información superflua. Se trata de reducir la carga cognitiva para que se produzca un procesamiento de la información eficiente y rápido, exactamente lo contrario que pretenden la mayoría de los libros impresos.

La lucha se dará también en el el terreno del mousse, con el cual el usuario juguetea y quiere clickear compulsivamente, para retenerlo deberemos ofrecerle cosas, el primer link que encuentren, del que perciban que tendrá alguna remota probabilidad de tener algún contenido cercano a lo que están buscando, será clickeado sin más análisis, la experiencia práctica y la investigación sistemática refuerzan esta idea. El arte de escribir para la Web no es el arte de crear contenidos para nuestros lectores, sino todo lo contrario, el arte de escribir para alguien deseoso de no-leer.


Para ello, la estructura de la información de un sitio web debe tener las siguientes características:

1. Los contenidos se deben estructurar mediante resúmenes y tablas de contenidos

2. El texto debe organizarse con palabras resaltadas, listas numeradas, líneas separadoras, etc. Los títulos y subtítulos deben ser claros, simples y concisos.

3. Los párrafos deben contener una única idea.

4. Utilizar estilo de redacción de pirámide invertida, comenzando por la conclusión y finalizando con los detalles. Así, opcionalmente la persona que desee profundizar puede seguir leyendo sin perjuicio del usuario que busca rápidamente la información.

5. Se deben utilizar la mitad de palabras que se usarían en la redacción de un texto común impreso.

6. Se debe utilizar lenguaje objetivo, sin exceso de adjetivos, palabras redundantes o afirmaciones no basadas en evidencias, es decir, lo contrario del lenguaje promocional.

7. Utilización de una combinación de colores de texto y fondo con suficiente contraste, texto claro sobre fondo oscuro o viceversa.

9. El lenguaje simple e informal es más adecuado que el elegante o formal, ya que la lectura es más rápida en el primero.

8. No se deben utilizar textos parpadeantes o deslizantes, dificultan la tarea de leer y hacen difícil prestar atención a otro punto de la página.

Un estudio de Nielsen y Morkes (1997) muestra que el lenguaje conciso y objetivo, así como una estructura ojeable, aumenta la usabilidad de un sitio web en un 124%, medida en tiempo utilizado para realizar la tarea, errores cometidos y recuerdo del usuario.

Estas recomendaciones de escritura son aplicables a casi todo tipo de contenidos. Sin embargo en algunos casos, como por ejemplo, webs con finalidades didácticas cuyos textos requieren de mayor profundización o tienen una finalidad especial (como algunos artículos de esta web) no es preciso seguir estas recomendaciones de manera tan estricta.