El peso ideal de tu página web

En M4rketing hace días que venimos trabajando el portal de unos clientes: diseño, programación, usuabilidad, etc. Ahora empezamos con el SEO y debatíamos el peso ideal  por página, teniendo en cuenta los futuros banners publicitarios con su consiguiente peso.

dietweb.gif

Reducir el peso de un site  equivale a incrementar  el número de paginas vistas. El peso excesivo por página reduce el número de páginas vistas por un usuario al margen de poder diferenciarte de la competencia.
Pasar la tijera por la web puede parecer un poco complicado,  todo nos parece imprescindible,  pero si pensamos en nuestro posicionamiento seguro que encontramos como.
Teniendo en cuenta el tiempo de conexión y la velocidad de descarga, la variable donde un site puede tomar ventaja es reduciendo el peso.

 +  información en  –  tiempo
–  tiempo  + clics
+ clics  + tiempo

Independientemente de la velocidad de conexión todos permanecemos más tiempo en aquellas webs donde la velocidad de descarga es más rápida. He comprobado personalmente que cuando una web tarda en cargar (dependiendo del interés) acabo cerrándola.

En Internet el tiempo de estancia en una web cada vez cobra más importancia en el posicionamiento. Que un sistema responda de forma rápida es vitál para trasmitir  calidad, confianza y seguridad. Es mejor crear 3 paginas de 10kbs que 1 de 30kbs.

Aligerar de peso significa que el usuario pueda acceder en menos tiempo al destino donde hallar la información que busca. Ese camino debemos allanarlo lo máximo posible con rutas sencillas y claras. En el destino ya nos podremos extender con la máxima info para el usuario. Cuando el camino es de fácil acceso incita a a seguir avanzando.
Es mejor ofrecer una pagina sencilla y que sea el usuario el que tome la decisión de seguir o retroceder, pero no le intentes enganchar ofreciendo muchas opciones (solo le aturdirás).

La regla básica para crear paginas de 10kbs es evitar poner todo en cada pagina. Muchos Sites «arrastran» los menús de navegación de todo la web en todas las paginas cuando por lo general indicar la posición del usuario en la web junto a un botón de «home» pueden ayudar.

Elimina los gráficos, el único necesario es el logo de tu web. Si es relevante, incluye fotografías del producto, noticias o ilustraciones de la actividad. El peso suele ser alto al margen de la conexión con el servidor que retrasa el envío de la info.

No pongas banners de autopromoción.  Si tu web incluye banners, procura ponerlos solo cuando tengas un patrocinador real. Si no lo tienes evita poner banners internos, incrementan el peso de la pagina, su utilidad es mas o menos nula y están creando ceguera en el usuario.

Aprovecha lo que el sistema te da: Las tipografías que ofrece el sistema son limitadas pero más que suficientes para crear titulares, botones, etc. No uses imágenes para crear «solo títulos».
Las tablas y los colores del sistema suelen ser más que suficientes para crear todo tipo de botoneras, lay-outs.
Procura utilizar todo lo que el html crea por defecto como las listas y bullets. El querer cambiar el sistema solo genera paginas mas lentas, nadie va a apreciar la mejora si al final el site va mas lento. Concentra las fuerzas en ofrecer contenido de calidad y en crear herramientas que funcionen mas rápido.

Se flexible con las limitaciones del html: El principal motivo por el que las paginas bajan despacio es por que los diseñadores (gráficos y programadores) de las paginas, pretenden imponer su «estilo de diseño» a un soporte que tiene ciertas características.

Saber moverse en el html con agilidad en cuanto al manejo de tipografía, párrafos, margenes y justificaciones es  mejor que imponer a base de código y gráficos unos limites que no van a mejorar el funcionamiento del site.

Be quick my friend

Search Congress Barcelona 2009

El Search Congress Barcelona 2009 será celebrado en el Hotel Rey Juan Carlos I en Barcelona durante los días  28 y 30 de Enero del próximo 2009 y será el primer Congreso masivo  en Barcelona sobre SEO, SEM y Marketing Online.

m4rketingscb.jpg

El congreso tendrá dos partes claramente diferenciadas:
Los workshops tendrán lugar durante el primer día del evento el Miércoles 28 de Enero 2008. con las temáticas de Seo, Sem, Persuabilidad, marketing de blogs, redes sociales y un seminario oficial de Google Adwords.

Los días 29 y 30 de Enero tendrá lugar el congreso, donde al margen de las charlas podrás encontrar los corners (stands temáticos apadrinados por una empresa experta en el tema) dentro del «Village» el espacio habilitado para charlar y hacer networking en un espacio más relajado.

La lista de ponentes es de renombre y hace pensar que la calidad del congreso será alta. La gran mayoría de las charlas serán en castellano cerca al 90%, entre las que destacamos la de los ponentes:

Ricardo Baeza-Yates-Yahoo.

Barney Pell- MSN USA Powerset

Juan Antonio Roncero- Live Search

Manuel Montilla – Microsoft

Ismael El-Qudsi- Havas Digital

Javier Casares – Ojo

Ildefonso Mayorgas-Thursday

Neil Stickells- Steak Media (UK)

Enrique Aguilera – Properazzi

Alberto Knapp Bjerén, The Cocktail

Miguel Orense- Kanvas Media

Massimo Burgio – Sempo

Raul Jiménez – Minube

Encarna Quesada – W3C

Yusef Hassan Montero, Scimago

Guillermo Vilarroig, Overalia

En estos tiempos que tanto se habla de crisis, el posicionamiento en buscadores va a tener un papel importante donde va a ver incrementado su cuota de mercado, nosotros lo hemos notado en M4RKETING donde estamos aumentando la petición de campañas de posicionamiento en buscadores.

Hasta el 31 de octubre 2008, se puede conseguir  entradas con un descuento especial  de 30€ para todo el congreso.

Si quieres aprovechar este descuento haz un click en el logo y no te olvides de poner la referencia  «m4rketingSCB»

m4rketingscb.jpg

Errores conocidos de Google Chrome

Después de que  Google Chrome salió se han acumulado una gran lista de errores (bugs), todo esto es normal sabiendo que  se trata de una versión Beta.

google chrome

Debido a la gran acogida que está teniendo este navegador es también normal que se detecten más rápido los errores, una lista extensa de errores se puede ver en este grupo de Google Chromium, aquí pongo una lista con los errores más criticados.

  • Usa un versión antigua de Webkit vulnerable al “Carpet Bombing“, este es un error que ya se ha corregido en la versión más reciente de WebKit pero Google usa la versión con el bug, más información.
  • No tiene soporte para IPv6, aunque el IPv6 aún no de adopta por completo es algo innevitable que algunos sitios web ya lo están usando y todo navegador moderno ya debe tener soporte para IPv6, por ejemplo Mozilla lo tiene implementado desde el año 2000.
  • No tienen scroll las imágenes SVG, cuando tratas de ver una imagen en formato SVG en Chrome y esta imagen es más grande que la pantalla no se puede hacer scroll, por ejemplo esta imagenmás información.
  • Otros errores o falta de características básicas, no se puede desactivar el corrector ortográfico y no hay vista previa de impresión.

CUIL ¿La competencia real de Google?

Home

Es pronto para poder analizar y realizar observaciones reales sobre el buscador.
Habrá que ver si realmente harán sombra al gigante, cambiar los hábitos del usuario es la tarea más difícil aunque es el momento mas idóneo debido a la cada vez más apariencia de monopolio por parte de Google.

Por lo pronto la página de resultados de la web tiene un aspecto diferentes a las de Google. Analiza los conceptos en la página y sus relaciones y agrupa resultados similares en diversos menús

cuil

Cuil, ha sido presentado hoy y, como os contamos en su día, está liderado por grandes expertos mundiales en la tarea de indexar la información contenida en miles de millones de documentos web.

Anna Patterson y Russell Power, antiguos responsables del buscador web de Google, además del misterioso proyecto ‘TeraGoogle‘, el cual pretendía supuestamente ofrecer información histórica de todas las páginas indexadas por Google a lo largo de los años. Patterson, además, había creado antes de ser fichada por Google el buscador ‘Recall’ para el proyecto ‘archive.org‘.

:: Luis Monier, fundador del histórico buscador Altavista, antiguo responsable de I+D en eBay, y fichado por Google en junio de 2005 para crear un buscador «multifaceta».

:: Tom Costello, el creador del primer prototipo del proyecto ‘WebFountain de IBM, que persigue desarrollar buscadores de tercera generación.

«Nuestros significativos avances en la tecnología de búsqueda nos han permitido indexar mucho más de Internet, colocando casi toda la Red al alcance de los dedos de cada usuario», afirma en un comunicado Tom Costello, cofundador y consejero delegado de Cuil.

De inicio, tal y como se puede ver en la página inicial de Cuil (se pruncia como la palabra «cool», es decir ‘kül’), este buscador parte con más de 121.000 millones de páginas web indexadas, lo que ofrece una idea de la potencia de este nuevo proyecto. El pasado día 25 de julio os contábamos cómo Google había anunciado que su buscador tenía «procesadas» un billón de URLs. Si fuesen cifras que representan el mismo concepto, Google tendría 8.26 veces maś que Cuil. Pero, como os comentábamos, cada página web indexada puede representar por ejemplo a unas 10 URLs procesadas que ofrecen el contenido duplicado.

En estos momentos, debido a la elevada carga que están sufriendo los servidores de Cuil durante este día de lanzamiento, las páginas de resultados de Cuil suelen fallar frecuentemente, pero en algunas ocasiones (ver ejemplo) vemos cómo la calidad de los resultados puede mejorarse, pero también cómo se han incorporado algunas funcionalidades que no tienen otros buscadores como Google, como la de organizar los resultados por categorías, lo que permite que, por ejemplo, si buscamos la palabra ‘apache’ nos distinga entre el páginas relacionadas con el popular servidor web, o con la tribu india americana.

Para ofrecer la relevancia de las páginas web que muestra como resultados, Cuil no utiliza un algoritmo como PageRank que establece una ‘popularidad’ para cada documento, sino que analiza los contenidos de todas las páginas y, establece si una determinada página se adecúa a las palabras que escribió el usuario en el buscador.

Además, Cuil promete en esta página web que, cuando realizas una búsqueda en él, no se guarda ninguna información que pueda ser fácilmente indentificable. «No tenemos ni idea de quién realiza la búsqueda: ni su nombre, ni su dirección IP, ni sus cookies», aseguran. Esto, sin duda, será una gran baza de márketing de Cuild, frente a un Google sí que guarda parte de esta información, y que en alguna ocasión ha defendido el almacenamiento de direcciones IP de los usuarios alegando que «no se trata de un dato personal«.

Danny Sullivan, analista de búsquedas en Internet y editor jefe de Search Engine Land, cree que Cuil puede intentar explotar las quejas que los consumidores tienen de Google, principalmente por los resultados que favorecen a las páginas más populares.

GOOGLE TRENDS

Ayer en la ofi de un amigo, me di cuenta que muchos websmasters no sacan partido a todas las herramientas de Google.
Decir que no era programador.

Google Trends es una herramienta para medir las tendencias de búsqueda por regiones geográficas, ciudades, idiomas, etc. Pudiendo comparar varios terminos entre si(máximo 5 separados por comas).

Para la planificación estratégica de campañas locales. La posibilidad de poder analizar diferentes keywords por localidad geográfica es de gran utilidad.

Ayer nos permitió averiguar la tendencia de búsqueda en las diferentes ciudades españolas de varios términos, que a la postre sirvió para comprar un par de dominios que increíblemente estaban libres.

Google Webmaster Live Chat

Me he enterado por Jordi Planas, al que le copio un par de frases por falta de tiempo.

Google ha anunciado a través de Google Blog Webmaster Central, su Google Webmaster Live Chat

Si quieres conocer las últimas novedades del buscador.

Una buena oportunidad para que los webmasters podamos aclarar nuestras dudas por los profesionales de Google, y sobretodo al presentación a cargo de John Mueller. 
El evento se iniciará a las 2 PM hora de la costa oeste  y para poder participar debe procederse a un registro aquí, puede verse el blog de Google para obtener información más detallada.

Se podrá ver la presentación de Maile Ohye de Google “Search Friendly Development”, abarcando interesantes temas como contenido duplicado, PageRank, URL estructura, etc…
No te la pierdas,

¿Google tiene en cuenta el tiempo de permanencia?

¿Es  importante para poder posicionar el tiempo de permanencia en una pagina web?
Ultimamente recibo muchos comentarios por parte de amigos webmasters haciendo hincapíe en este detalle, tambien recuerdo que en el congreso de Networking Activo, Jaume Ferre de Ocio media hacia referencia a este detalle.

Si por ejemplo mi web es un buscador y un usuario esta mucho rato, no significa que no encuentra lo que busca. En este caso,  Google tendría que penalizar mi web.
Asimismo si mi web es un foro, una red social, etc lo que me interesa es que el usuario permanezca el mayor tiempo posible.

Yo visito webs que estan muy bien posicionadas y no estoy mucho tiempo.

Que ocurre cuando en un buscador (como Google) es cada vez más dificil encontrar lo que buscas……… se autopenalizaran…..(jajaja)

El tiempo de permanencia que muestra Google en Analytics es muy relativo.
Otro punto a tener en cuentas es cómo lo valora si no usamos Analytics. Porque seria un dato que debería cruzar entre plataformas Analytics-Algoritmo de posicionamiento, y quien no use Analytics, ¿ saldrá peor o mejor posicionado ?

Personalmente creo que Google valora casi todo lo que es cuantificable y se puede medir de una web.