viernes, 2 de noviembre de 2012

Publicada documentación del curso "Bases de datos espaciales con PostGIS y MySQL".

Tal y como hemos venido dando difusión a través de redes sociales (especialmente Twitter y Linked.in) y alguna lista de correo relacionada con la materia de los SIG, hemos publicado la documentación íntegra del curso "Bases de datos espaciales con PostGIS y MySQL", incluyendo manual teórico, guiones de prácticas, datos de ejemplo y presentaciones de clase, impartido por los autores (Borja Mañas y Alvaro Zabala) con una duración de 30 horas.

El material se publica con licencia Creative Commons 3.0 Attribution.

Se puede acceder a través de http://www.lookingformaps.com/curso-postgis (requiere registro previo).

Nuestra idea es mantener vivo el material, actualizándolo y completándolo, así que cualquier sugerencia o feedback es bien recibido.

Espero que os pueda servir de utilidad.

miércoles, 19 de septiembre de 2012

SEO: Optimización para motores de búsqueda (Search Engine Optimization)

 El SEO, críptico acrónimo muy utilizado en la red, como si diese más categoría a los técnicos especializados en esta nueva disciplina de la información utilizar estos vocablos que no entienden los usuarios normales en vez de su definición en español, no es más que la aplicación de una serie de ajustes en los sitios webs para que los motores de búsqueda puedan encontrar más fácilmente sus contenidos e “interpretarlos”, es decir, categorizarlos de tal forma que sean mostrados enlaces a estas webs a los usuarios cuando estos buscan información en los buscadores de Internet empleando una serie de palabras clave.

Y la realidad de Internet es que, aunque hablamos de motores de búsqueda en genérico, y de vez en cuando aparecen buscadores que destacan por la introducción de algún aspecto novedoso (el respeto del anonimato en la web, la especialización en un segmento de información, o en una determinada región geográfica, etc) lo cierto es que el buscador por excelencia es Google, y todo hay que decirlo, por méritos propios. Así que en un porcentaje altísimo de casos, cuando hablamos de SEO, deberíamos hablar de GSEO (Google Search Engine Optimization).



El propio Google, para facilitar a los creadores de contenidos que éstos estén optimizados para que su buscador encuentre sus creaciones y las procese adecuadamente, y dicho sea de paso, para que los propios creadores del contenido trabajen un poco para él, y conseguir que su motor de búsqueda (y no el de los demás) sea el que mejor procese estos contenidos, y así ofrezca resultados de mayor calidad a los usuarios del buscador, ha publicado una guía de optimización para motores de búsquedas para principiantes. 




La optimización para motores de búsqueda consiste a menudo en pequeñas modificaciones de partes concretas de tu sitio web. Cuando estas modificaciones se consideran de manera individual, pueden percibirse como mejoras, pero cuando se combinan con otras optimizaciones, podrían causar un gran impacto en la experiencia del usuario y en el rendimiento del sitio en los resultados de búsqueda orgánicos.”

Y en un mundo ideal, en el que los productores de contenidos lo hacen pensando únicamente en este contenido, y en los destinatarios de los mismos, el proceso de creación y descubrimiento más lógico sería que los productores crean contenidos, a lo sumando teniendo en cuenta algunos principios básicos para facilitar su trabajo a los motores de búsqueda, pues es natural que todo creador aspire llegar al mayor público posible, y los motores de búsqueda aprenden a categorizarlos, de tal forma que dirijan a los usuarios que buscan información a los mejores contenidos en función de sus intereses.

Pero como vivimos en una sociedad que tiende a la especulación, en la que por ejemplo la economía financiera, de la inversión en futuros, cortos y largos, multiplica por cinco la economía productiva, los SEO han estudiado técnicas que, a partir del conocimiento de cómo funcionan los robots de los motores de búsqueda que indexan y categorizan el contenido de la web, permitan que páginas o recursos con contenido menos relevante para los “consumidores humanos”, sean interpretadas por los motores de búsquedas como más relevantes que otros recursos que si tienen ese interés


Este fenómeno ha derivado en que Internet se ha ido llenando poco a poco de “basura espacial” (símil que me parece muy ilustrativo del fenómeno, al igual que todos los satélites ya no operativos que se encuentran orbitando el planeta Tierra), con gran número de contenidos irrelevantes, o plagiados, y que han ido adelantando en los primeros lugares de resultados del Buscador a los contenidos originales o de gran relevancia para sus usuarios humanos. 

Para definir estos lugares se ha introducido un nuevo término: “splog”: "blog creado con el único fin de promocionar sitios web afiliados, mejorar la posición de los mismos ante los buscadores, para publicar únicamente avisos publicitarios que pagan por cantidad de visitantes. El contenido de estos blogs es generalmente texto escrito específicamente para obtener mayores ganancias con AdSense o también textos copiados desde otros sitios web. Los splogs se han convertido en un problema mayor en los servicios de alojamiento gratuito de blogs, como el servicio Blogger de Google. Se estima que allí, tres de cada cinco blogs son en realidad splogs.[1] Estos blogs falsos desperdician espacio en los discos duros y ancho de banda así como también contaminan los resultados de los buscadores en Internet, perjudicando especialmente a los buscadores especializados en blogs". 

Logo del proyecto "Splog Project" (http://splogproject.com/) para combatir el Splog.

  
El buscador de Google utiliza el algoritmo PageRank, que es muy vulnerable al abuso de enlaces para asociar un término con un sitio web,e specialmente cuando estos aparecen en sitios con un indice de PageRank alto. Los splogs pueden convertirse en un obstáculo para las personas que buscan información en los blogs. A veces, los splogs escogen un nombre similar al de un blog de buena reputación para confundir al visitante casual.

El extremo de esta práctica sería el concepto conocido como “Google bombs” (una traducción libre sería “atentados en Google”, que a mi me gusta más que la literal “Bombas Google”), por el que unos “terroristas del buscador”, haciendo uso de las técnicas SEO comentadas con anterioridad, pueden hacer que determinados sitios web o contenidos digitales aparezcan como los más relevantes en búsquedas que usan palabras clave cuya asociación con la empresa u organización que publica este contenido pueda generar una degradación de su imagen pública

Así, navegando un poco por la red podemos encontrar célebres “atentados en Google” (enlace: http://www.searchenginepeople.com/blog/incredible-google-bombs.html ) como la asociación de enfermedades venéreas al fenómeno fan Justin Biever, la aparición de la web de Microsoft como primer resultado de la búsqueda “more evil than Satan”, o la asociación de términos de búsqueda de connotaciones muy peyorativas (ruina, fracaso, mentiroso, etc) a las figuras de presidentes del gobierno de grandes naciones como Sarkozy, Blair o George W. Bush.


Google Bomb que asoció la palabra clave "liar" (mentiroso) a la biografía del ex-primer ministro británico Tony Blair.


 Caso de Google Bomb similar al anterior. En este caso la palabra clave fue "failure" y el afectado George W. Bush.


 Y puesto que Google no se puede permitir este fenómeno, que haría que su buscador dejase de tener utilidad como localizador de la información de calidad que justamente está buscando el usuario, con todo lo que eso conllevaría, en pérdida de cuota de usuarios, a los que monitorizar sus hábitos de consumo a través de cookies, y a los que mostrar continuamente publicidad segmentada en función de estos hábitos, el gigante de Internet está continuamente optimizando y mejorando los algoritmos de sus robots de indexación y categorización de contenido, lo que hace que, de todas las innumerables prácticas y recetas que recomiendan los expertos en SEO, de las que está la web llena, solo unas pocas, las prácticas más razonables, y que en mi opinión están relacionadas con facilitar el trabajo del buscador, e incluso también del propio consumidor humano de los contenidos creados, siguen siendo de utilidad, mientras que aquellas que “tratan de engañar al buscador”, haciendo parecer relevante un contenido que realmente no lo es, son rápidamente inocuas, pudiendo incluso llegar a provocar el efecto contrario: que el buscador penalice estos lugares web que hacen uso de estas técnicas.


De todas las innumerables prácticas y recetas que recomiendan los expertos en SEO, de las que está la web llena, solo unas pocas, las prácticas más razonables, y que en mi opinión están relacionadas con facilitar el trabajo del buscador, e incluso también del propio consumidor humano de los contenidos creados, siguen siendo de utilidad, mientras que aquellas que “tratan de engañar al buscador”, haciendo parecer relevante un contenido que realmente no lo es, son rápidamente inocuas, pudiendo incluso llegar a provocar el efecto contrario: que el buscador penalice estos lugares web que hacen uso de estas técnicas.


Sin duda, aquellos que han hecho de su actividad profesional el posicionamiento de páginas web en buscadores podrán tildar de radical esta afirmación, y podrán demostrarme con numerosos ejemplos de su trabajo diario cómo aplicando recetas y trucos, bien de cosecha propia bien procedentes de otras fuentes, y que rápidamente se propagan por el propio carácter viral de las redes de intereses comunes, han conseguido posicionar en los primeros lugares de los resultados de búsqueda y para una serie de palabras clave una web que, por la relevancia de su contenido en principio tendría que estar en posiciones más retrasadas. 

En mi humilde opinión, esto es “pan para hoy y hambre para mañana”. Los buscadores en general, y Google en particular, no quieren “dejarse engañar”, aunque lo vistan en la Guía de como un beneficio para tus usuarios:

Aunque en el título de esta guía aparezcan las palabras "motores de búsqueda", nos gustaría decir que, ante todo, debes basar tus decisiones sobre optimización pensando en la mejor opción para los usuarios que visitan tu sitio. Son los principales consumidores de tu contenido y utilizan motores de búsqueda para encontrarlo. Si te centras demasiado en determinados ajustes para obtener un buen posicionamiento en los resultados de búsqueda orgánicos, no podrás ofrecer los resultados deseados. La optimización para motores de búsqueda trata de mostrar lo mejor de tu sitio en los motores de búsqueda. 

En futuras entradas de este blog iremos publicando aquellas prácticas SEO que sí me parecen útiles y razonables. 

 

jueves, 13 de septiembre de 2012

Mapas invisibles: SEO, SEM y Social Media de mapas


Como ya comenté en la entrada inaugural del blog de Looking for Maps, una de las principales motivaciones que me movieron a desarrollar este portal fue la de dar más visibilidad a los servicios de mapas que administraciones públicas y empresas privadas han publicado en Internet. 

 Google ha “democratizado” los mapas, ha hecho de las aplicaciones basadas en mapas un producto de consumo cotidiano, que conoce y usa todo el mundo. Y esto lo ha hecho desarrollando dos aplicaciones magníficas, Maps y Earth, en su tiempo totalmente disruptivas, y construyendo una base de datos de información territorial de cobertura mundial, que se preocupa de mantener lo más actualizada posible. 

Sin embargo, no siempre la información de Google es la más precisa o actualizada, puesto que éste no es quien la produce, en la mayoría de los casos se dedica a recopilarla de sus productores y a consolidarla en su modelo de datos internos (aunque el gran gigante de Internet se ha dado cuenta de que esto es una debilidad, y está trabajando para ser autónomo e independiente en materia de datos).


En algunos casos, existen alternativas a los mapas de Google más precisas o más recientes en el tiempo...pero esas alternativas son mapas invisibles, puesto que el público general, mi madre, mi hermano, mis cuñados, nada saben de ellos. 

Y ahí es donde no han llegado, o directamente no han intentado llegar, las Infraestructuras de Datos Espaciales: en hacer que los mapas que producen y publican sean visibles para el público general, y no se quedan ocultos tras esos servicios interoperables (WMS, WFS, etc) y esos servidores de catálogo (CSW), en forma de una “ficha” de metadatos, tan necesarios como crípticos para los usuarios normales de información geográfica.


En resumen, y siempre bajo mi punto de vista, las IDE se han preocupado de ordenar las fuentes de información geográfica, y de hacerlas accesibles a través de Internet, por si alguien las encuentra....pero no han tenido en cuenta cómo los usuarios de “a pié” en Internet buscan la información y acceden a ella. Para encontrar algo en una IDE, tal y cómo se han concebido, hay que saber lo que se busca, y casi también dónde hay que buscarlo. Podemos decir que las IDE, en la línea del movimiento OpenData, están dirigidas a los técnicos especialistas y a los desarrolladores de aplicaciones (infomediarios) más que al público general.

Porque aunque se hable de infraestructuras en red, las IDE realmente no están conectadas, y aunque IDEs locales se agrupen en IDEs regionales, éstas en IDEs nacionales, y así hasta constituir IDEs continentales o incluso mundiales, lo mas probable es que para encontrar una información muy concreta haya que ir a buscarla al nodo IDE local donde se ha generado. 

En definitiva, el gran éxito de las IDEs ha sido la búsqueda de la interoperabilidad y la preocupación por inventariar, metadatar, y publicar, pero su gran fracaso (o directamente su abandono, porque en muchos casos se ha pensado que no era su finalidad) ha sido el llegar al público normal, al ciudadano de a pié que nada tiene que ver con la geomática.
 
En este punto, me gustaría reproducir un fragmento del libro “Mapas Invisibles: el marketing del mapa en Internet”, escrito por José del Río San José, que ya cité en la primera entrada del blog. La obra “Mapas Invisibles” me sorprendió muy gratamente, porque se encargaba de sistematizar y de exponer desde un punto de vista teórico muchos de los principios que yo estaba aplicando en la construcción de Looking4Maps. Considero que si la obra de del Río San José es la respuesta teórica al problema de los mapas invisibles en Internet, la web http://www.lookingformaps.com es otra cara de un mismo prisma: un intento de dar solución práctica al mismo problema.

Cedemos la palabra a Del Río San José para hacer una definición de la paradoja del mapa invisible:

Los mapas invisibles son aquellos que buscan ser vistos, al menos por un segmento de la población y algunos por qué no, pasar a formar parte del salón de la fama cartográfica y que como consecuencia de los avances tecnológicos tiene que hacer frente a un anonimato prácticamente garantizado y no buscado. ¿Pero cuáles son las razones por las que asistimos a un nuevo periodo de invisibilidad de los mapas? Hoy en día la combinación de nuevas tecnologías de producción como los Sistemas de Información Geográfica (SIG), los Sistemas de posicionamiento Global (GNSS), los sensores remotos, y las aplicaciones de las geonube, unidas a una tecnología de difusión sin precedentes como es Internet, han provocado una paradoja: Nunca en la historia de la humanidad hemos contado con una abundancia de contenidos cartográficos tan grande, ni con medios de difusión de este alcance, pero esa abundancia es la responsable de un nuevo periodo de mapas invisibles. Esta paradoja tiene dos
componentes
  • La primera es la gran capacidad de producción de contenidos cartográficos a la que asistimos hoy en día gracias a tecnologías como los SIG, los sistemas GPS y los sensores remotos. Es un fenómeno completamente nuevo. Podemos diseñar mapas con una gran facilidad, y con un coste por unidad mucho menor que en cualquier otro momento de la historia. La reutilización de datos y la tecnología de diseño nos lo permiten. La consecuencia es que muchos de ellos no se diferencian en gran medida de otros: es un entorno de producción de mapas clonados, de productos en serie. Una analogía a este fenómeno podemos hallarla en las mercancías que la revolución industrial facilitó a la sociedad. La solución que encontró el mercado fue la creación de marcas como manera de diferenciar los productos. Como afirma Klein en su libro nologo: desde ese momento –de creación de marcas- las bombillas dejaron de ser todas iguales 
     
  • La segunda componente es una consecuencia de Internet. La audiencia ha aumentado, pero la creación de contenidos mucho más, motivo por el que la atención es la nueva moneda de cambio, un bien escaso, por el que nuestros mapas, al igual que el resto de imágenes, entran en una dura competencia. Los mapas han dejado de ser un contenido único para hibridarse, entrar en simbiosis y la mayor parte de las veces en una dura competencia con todo tipo de imágenes: desde fotografías a infografías. El mapa se ha socializado en Internet y se ha convertido en una imagen más. ”


Llegados aquí, cabria preguntarse...

¿Y cómo hacer que un mapa sea visible en Internet?

Mentiría si dijese que existe una fórmula mágica para hacer visibles los mapas en Internet. Lo que sí es cierto es que  existen varias recetas y recomendaciones, pero éstas no son exclusiva del mundo de los mapas. Estas recetas se vienen aplicando desde que existe Internet, y desde que aparecieron los motores de busqueda primero, luego la publicidad online y más tarde las Redes Sociales y los fenómenos “virales” en la red. Estas prácticas y recetas han ido a constituir auténticas disciplinas relacionadas con Internet: el SEO, el SEM y el Social Media.


Iremos desarrollando estos conceptos en futuras entradas del blog.

jueves, 16 de agosto de 2012

Buscando mapas: iniciando el camino


Esta semana arranco un proyecto personal en el que llevo trabajando más de dos años...dedicando los escasísimos ratos libres que un papá de 3 niños de 1, 3 y 4 años puede tener, o directamente robándole estos ratos al sueño.

Finalmente,¡ Looking4Maps está en la calle! ¿Qúe es Looking4Maps? ¿Qué motivación me ha llevado a desarrollar y publicar esta herramienta?

Looking4Maps empecé a desarrollarlo con un doble objetivo: proporcionar un punto de referencia al que pueda acudir cualquier aficionado a los mapas para localizar los servicios de datos geográficos publicados en la red, y hacer visibles estos servicios.

Atendiendo al primer objetivo que perseguía, http://www.lookingformaps.com es un buscador vertical especializado en mapas online y servicios de datos geográficos. Es decir, como bien explica nuestra amada Wikipedia, un buscador vertical se especializa en un nicho concreto de información, buscando ser más eficiente, y minimizar el "ruido"; la cantidad de recursos de información que aporta no relacionados con nuestro ámbito de interés.

El segundo objetivo, hacer más visibles los mapas y servicios geográficos existentes en Internet, estaba relacionado con mi trayectoria profesional como funcionario de una Administración Pública, especializado en informática y cartografía (geomática), y en el que una parte importante de mis responsabilidades ha estado relacionado con la publicación en Internet de los datos que producimos.

En los últimos 12 años, la Administración Pública ha hecho un importante esfuerzo en la publicación de Información Geográfica a través de Internet, en un ejemplo de transparencia que ha sido destacado por las recientes iniciativas de gobierno abierto y apertura de datos.

No obstante, este esfuerzo no trasciende en la sociedad, en el ciudadano. Tengo incontables ejemplos (que iré desgranando en este blog) de situaciones en las que algún amigo o conocido necesitaba datos geográficos con unos determinados requisitos de precisión o actualización, que Google Maps no era capaz de satisfacer, pero que sí hubiesen sido cubiertas accediendo a las infraestructuras de datos espaciales (IDE) habilitadas por las Administraciones Públicas, y que finalmente pudieron ser resueltas porque me conocían y yo si conocía las fuentes a las que acudir.

Sin embargo, y en esto Google Maps nos ha dado importantes lecciones, las Administraciones no han dado el último paso: facilitar que estos servicios sean de fácil acceso y consumo para el ciudadano, que nada sabe de los estándares WMS, WFS o CSW, y que si sabe algo de KML o GPX es porque son los formatos con los que trabaja su GPS de muñeca (runners) o su GPS de bicicleta, es decir, sus productos de consumo diario.  O quizás esto ha sido así conscientemente, porque pensaban que su obligación era crear infraestructura, y que debía ser el mercado el que crease estos productos de consumo final.

El hecho que finalmente me empujó a empezar este experimento personal fueron las declaraciones que hizo el Director de Google Maps en España, David Robles Fosg, durante en el congreso de la asociación de geógrafos españoles de finales del 2010 en Sevilla, declaraciones que tuve la ocasión de escuchar en directo y que intenté rebatir durante el turno de preguntas de su ponencia: "El director de Google Maps en España pide abrir los datos públicos a los ciudadanos".

Y no es que no esté de acuerdo con el mensaje, que lo estoy, y de hecho los pasos que da lan las diferentes administraciones están siendo en ese sentido, pese a que todavía quede mucho camino por recorrer. Pero Google no es que pueda sacar pecho en cuanto apertura de datos. Google no publica sus datos, al contrario de lo que este hombre me contestó durante el turno de preguntas de su ponencia, Google te deja que utilices su software, a través del que puedes ver datos, porque a cambio el recolecta una gran cantidad de información sobre tus hábitos, y además te muestra publicidad.

No obstante, durante estos dos años y medio que casi han pasado, el "Social Mapping" ha experimentado una auténtica explosión, y han proliferado herramientas que podrían estar más o menos relacionadas con los objetivos que me proponía alcanzar:
 Todos ellos prestan más atención a la producción, a crear nuevos mapas, que al descubrimiento, a localizar e indexar los mapas que ya existen. Además, la gran mayoría de ellos solo se centran en un tipo de los posibles formatos de publicación de datos geográficos en Internet (KML). Por este motivo, me he decidido a terminar lo que empecé y a publicar una primera pre-beta de Looking4Maps.

Para finalizar esta primera entrada, no quisiera dejar de tratar el tema de la influencia que tienen las redes sociales (Social Media) y la optimización de contenidos para motores de búsqueda (SEO) en el trabajo de hacer visibles estos mapas. Por este motivo, me pareció una auténtica delicia la publicación del libro online "Mapas Invisibles", por Jorge del Río Sanjosé, conocido en la red por ser el autor del blog "Orbemapa" (El Mundo de los mapas). El libro, publicado en Mayo, trata una serie de disciplinas que yo había utilizado para la construcción de este primer borrador de la herramienta: el uso de nubes de etiquetas (folcsonomías) en vez de taxonomías cerradas, la importancia de las palabras clave, la importancia del boca a boca social (por eso la gestión de usuarios la he delegado exclusivamente en Facebook como red social más extendida), etc. También me ha sorprendido muy gratamente descubrir el trabajo de profesionales del mundo de la geomática, como Gerson Beltrán, en esta misma línea de hacer converger los mundos del "social media" -redes sociales- y la geomática.

Intentaré en próximas entradas poner algunos ejemplos de utilización de estas técnicas en Looking for Maps acompañadas de la explicación teórica extraída del libro "Mapas Invisibles" o de alguna presentación en Slide Share de Gerson Beltran .