Nuevos resultados y formatos de búsqueda de Google

Googleblog
Googleblog

Ayer por la noche leía el post en el Blog de Google el post donde esta desarrollando nuevos formatos de búsqueda en los resultados siempre considerando el beneficio del usuario.

Como viene siendo habitual los primeros en experimentar estos resultados son los yanquis, donde como novedad ya previsible la inclusión de vídeos, imágenes y mapas tendrán más presencia.

En palabras de Google «El texto a menudo es útil, pero las imágenes y los vídeos son a veces  una manera más eficáz de dar información»

ad_video_google
Nuevo formato de video en anuncios Google

ad_map_google

ad_links_google

ad_image_google

ad_comparativa-_precios_google

Mi opinión:

Puede ser muy práctica la inclusión de mapas en los resultados de búsquedas locales cuando buscas una dirección concreta, pero ¿Quien no conoce G Maps?  y ¿You Tube? o G Images  con lo que siempre y cuando se adapte a los criterios de búsquedas y no a los anuncios que hay que dar salida me parece correcto.

Por lo tanto mi opinión no es del todo positiva, pues no mejora los resultados de búsqueda, sino que es una nueva estrategía de Google para mejorar la monetización de los resultados orgánicos y buscar un mayor número de clics en los anuncios ya que con mayor tamaño , fotos, etc los usuarios serán más sensibles en el movimiento de su dedo.

En su versión hablan de mejorar los resultados para el usuario, pero creo sinceramente que lo que van a conseguir es alejar aún más los buenos contenidos al fondo de la página con lo que realmente el trabajo SEO se ve perjudicado.

Usuarios de Google reciben alerta de ataque en todos los sitios

MOUNTAIN VIEW, California, EE.UU.
Los usuarios del Google se encontraron el sábado durante unos 40 minutos con mensajes que indicaban peligro en cada uno de los sitios que encontraban, lo cual resultó ser un error.

La empresa dijo que fue un error humano y se disculparon por cualquier problema causado para los usuarios y los dueños de los sitios incorrectamente señalados como peligrosos.

El error ocurrió entre las 1430 y 1525 GMT, según informó Google Inc. al explicar lo ocurrido en su bitácora online.
Cualquier usuario del buscador durante ese período se encontraba con el mensaje «This site may harm your computer» (Este sitio puede dañar su computadora), en cada resultado de búsqueda, añadió la empresa.

Google explicó que esos mensajes son habituales si se sabe que el sitio en cuestión busca instalar programas en la computadora del usuario de manera oculta, a fin de protegerlo. Google dijo que mantiene una lista de sitios sospechosos conforme criterios desarrollados por el proyecto StopBadware.org, organización sin fines de lucro conformada por expertos legales de las universidades de Harvard y Oxford, quienes investigan quejas de los consumidores.

El error del sábado ocurrió cuando Google aplicó de manera equivocada una de las actualizaciones periódicas de la lista, de forma que el alerta podría ser aplicado a todos los sitios, señaló la empresa en un comunicado.

El error fue detectado por el personal de emergencia y el archivo fue arreglado rápidamente, dijo Google. Dado que las actualizaciones son aplicadas en etapas, los errores empezaron a aparecer a las 1427 GMT y desaparecieron alrededor de las 1525 GMT, siendo la duración para cualquier usuario de aproximadamente 40 minutos, indicó.

«Investigaremos cuidadosamente este incidente y revisaremos de manera más amplia los archivos, para impedir que esto pase otra vez», dijo Marissa Mayer, vicepresidenta de investigación de productos y experiencia del usuario, en la declaración.

Errores conocidos de Google Chrome

Después de que  Google Chrome salió se han acumulado una gran lista de errores (bugs), todo esto es normal sabiendo que  se trata de una versión Beta.

google chrome

Debido a la gran acogida que está teniendo este navegador es también normal que se detecten más rápido los errores, una lista extensa de errores se puede ver en este grupo de Google Chromium, aquí pongo una lista con los errores más criticados.

  • Usa un versión antigua de Webkit vulnerable al “Carpet Bombing“, este es un error que ya se ha corregido en la versión más reciente de WebKit pero Google usa la versión con el bug, más información.
  • No tiene soporte para IPv6, aunque el IPv6 aún no de adopta por completo es algo innevitable que algunos sitios web ya lo están usando y todo navegador moderno ya debe tener soporte para IPv6, por ejemplo Mozilla lo tiene implementado desde el año 2000.
  • No tienen scroll las imágenes SVG, cuando tratas de ver una imagen en formato SVG en Chrome y esta imagen es más grande que la pantalla no se puede hacer scroll, por ejemplo esta imagenmás información.
  • Otros errores o falta de características básicas, no se puede desactivar el corrector ortográfico y no hay vista previa de impresión.

CUIL ¿La competencia real de Google?

Home

Es pronto para poder analizar y realizar observaciones reales sobre el buscador.
Habrá que ver si realmente harán sombra al gigante, cambiar los hábitos del usuario es la tarea más difícil aunque es el momento mas idóneo debido a la cada vez más apariencia de monopolio por parte de Google.

Por lo pronto la página de resultados de la web tiene un aspecto diferentes a las de Google. Analiza los conceptos en la página y sus relaciones y agrupa resultados similares en diversos menús

cuil

Cuil, ha sido presentado hoy y, como os contamos en su día, está liderado por grandes expertos mundiales en la tarea de indexar la información contenida en miles de millones de documentos web.

Anna Patterson y Russell Power, antiguos responsables del buscador web de Google, además del misterioso proyecto ‘TeraGoogle‘, el cual pretendía supuestamente ofrecer información histórica de todas las páginas indexadas por Google a lo largo de los años. Patterson, además, había creado antes de ser fichada por Google el buscador ‘Recall’ para el proyecto ‘archive.org‘.

:: Luis Monier, fundador del histórico buscador Altavista, antiguo responsable de I+D en eBay, y fichado por Google en junio de 2005 para crear un buscador «multifaceta».

:: Tom Costello, el creador del primer prototipo del proyecto ‘WebFountain de IBM, que persigue desarrollar buscadores de tercera generación.

«Nuestros significativos avances en la tecnología de búsqueda nos han permitido indexar mucho más de Internet, colocando casi toda la Red al alcance de los dedos de cada usuario», afirma en un comunicado Tom Costello, cofundador y consejero delegado de Cuil.

De inicio, tal y como se puede ver en la página inicial de Cuil (se pruncia como la palabra «cool», es decir ‘kül’), este buscador parte con más de 121.000 millones de páginas web indexadas, lo que ofrece una idea de la potencia de este nuevo proyecto. El pasado día 25 de julio os contábamos cómo Google había anunciado que su buscador tenía «procesadas» un billón de URLs. Si fuesen cifras que representan el mismo concepto, Google tendría 8.26 veces maś que Cuil. Pero, como os comentábamos, cada página web indexada puede representar por ejemplo a unas 10 URLs procesadas que ofrecen el contenido duplicado.

En estos momentos, debido a la elevada carga que están sufriendo los servidores de Cuil durante este día de lanzamiento, las páginas de resultados de Cuil suelen fallar frecuentemente, pero en algunas ocasiones (ver ejemplo) vemos cómo la calidad de los resultados puede mejorarse, pero también cómo se han incorporado algunas funcionalidades que no tienen otros buscadores como Google, como la de organizar los resultados por categorías, lo que permite que, por ejemplo, si buscamos la palabra ‘apache’ nos distinga entre el páginas relacionadas con el popular servidor web, o con la tribu india americana.

Para ofrecer la relevancia de las páginas web que muestra como resultados, Cuil no utiliza un algoritmo como PageRank que establece una ‘popularidad’ para cada documento, sino que analiza los contenidos de todas las páginas y, establece si una determinada página se adecúa a las palabras que escribió el usuario en el buscador.

Además, Cuil promete en esta página web que, cuando realizas una búsqueda en él, no se guarda ninguna información que pueda ser fácilmente indentificable. «No tenemos ni idea de quién realiza la búsqueda: ni su nombre, ni su dirección IP, ni sus cookies», aseguran. Esto, sin duda, será una gran baza de márketing de Cuild, frente a un Google sí que guarda parte de esta información, y que en alguna ocasión ha defendido el almacenamiento de direcciones IP de los usuarios alegando que «no se trata de un dato personal«.

Danny Sullivan, analista de búsquedas en Internet y editor jefe de Search Engine Land, cree que Cuil puede intentar explotar las quejas que los consumidores tienen de Google, principalmente por los resultados que favorecen a las páginas más populares.

Google Webmaster Live Chat

Me he enterado por Jordi Planas, al que le copio un par de frases por falta de tiempo.

Google ha anunciado a través de Google Blog Webmaster Central, su Google Webmaster Live Chat

Si quieres conocer las últimas novedades del buscador.

Una buena oportunidad para que los webmasters podamos aclarar nuestras dudas por los profesionales de Google, y sobretodo al presentación a cargo de John Mueller. 
El evento se iniciará a las 2 PM hora de la costa oeste  y para poder participar debe procederse a un registro aquí, puede verse el blog de Google para obtener información más detallada.

Se podrá ver la presentación de Maile Ohye de Google “Search Friendly Development”, abarcando interesantes temas como contenido duplicado, PageRank, URL estructura, etc…
No te la pierdas,

¿Google tiene en cuenta el tiempo de permanencia?

¿Es  importante para poder posicionar el tiempo de permanencia en una pagina web?
Ultimamente recibo muchos comentarios por parte de amigos webmasters haciendo hincapíe en este detalle, tambien recuerdo que en el congreso de Networking Activo, Jaume Ferre de Ocio media hacia referencia a este detalle.

Si por ejemplo mi web es un buscador y un usuario esta mucho rato, no significa que no encuentra lo que busca. En este caso,  Google tendría que penalizar mi web.
Asimismo si mi web es un foro, una red social, etc lo que me interesa es que el usuario permanezca el mayor tiempo posible.

Yo visito webs que estan muy bien posicionadas y no estoy mucho tiempo.

Que ocurre cuando en un buscador (como Google) es cada vez más dificil encontrar lo que buscas……… se autopenalizaran…..(jajaja)

El tiempo de permanencia que muestra Google en Analytics es muy relativo.
Otro punto a tener en cuentas es cómo lo valora si no usamos Analytics. Porque seria un dato que debería cruzar entre plataformas Analytics-Algoritmo de posicionamiento, y quien no use Analytics, ¿ saldrá peor o mejor posicionado ?

Personalmente creo que Google valora casi todo lo que es cuantificable y se puede medir de una web.