En la categoría de: Art. para Webmasters y Joomla
Palabras Clave: joomla 2.5, 1.7, 1.5, nueva, actualización, joomla!, versiones
Publicado: 24-01-2012 (13:00)
Es un gráfico que explica las distintas versiones de Joomla, su desarrollo, sus actualizaciones previstas, etc.
En la categoría de: Art. para Webmasters y Joomla
Palabras Clave: articulo, posicionamiento, orgánico, seo, profesional, calidad, pagina web, posicionamiento en escalera, creacion web, tipo, natural, organico, pago, click, internet, website, buscador, google, bing, yahoo
Publicado: 13-01-2012 (17:30)
El posicionamiento en Internet es la situación donde se coloca una página web en los buscadores de Internet (Google, Yahoo, Bing, etc.).
Se pueden diferenciar dos tipos de posicionamiento: el de pago y el natural u orgánico.
El SEO (Search Engine Optimization), u optimización para los motores de búsqueda, es la mejora de las webs para que los buscadores enlacen más positivamente a las páginas webs. Existe numerosa literatura respecto del SEO.
Los buscadores rastrean las webs a través de sus robots que estudian todo el contenido de un sitio web. Dependiendo del contenido, su interés y su calidad, serán enlazados en su buscador en función de lo que un usuario busque (de las palabras que ponga en el buscador). El buscador determina la posición que se merece esa página, y la mostrará en una posición que suele variar en el tiempo (incluso en lapsos de tiempo cortos).
El posicionamiento y el SEO se han convertido en todo un tema desarrollado y realmente complejo donde Net&Software se ha especializado para dar a sus clientes esta ventaja frente a sus competidores.
La estrategia para llegar a un buen posicionamiento orgánico (el más difícil de entre los posicionamientos existentes) es un estudio pormenorizado de la empresa, sus metas en los buscadores y un estudio de las campañas que desea la empresa.
Pretender realizar un buen posicionamiento de palabras muy genéricas (como por ejemplo: web, empresa, página, o palabras similares) es un error, pues esto induce a un posicionamiento, en la mayoría de los casos, ineficaz y desviado. Es más adecuado pretender un buen posicionamiento con una combinación de palabras que le sean de utilidad a la empresa, o por la que la empresa crea que va a conseguir clientes o beneficios, que un posicionamiento de una palabra genérica. El conseguir el posicionamiento por palabras muy genéricas suele venir a posteriori, y siempre con esfuerzo desde una base de posicionamiento ya creado.
Existen muchas ayudas al posicionamiento, aunque ningún truco como tal, que haga estar el primero en un buscador sin esfuerzo. Pero lo que sí es una máxima es que la calidad en una web, una buena descripción del sitio y el no pretender engañar a los robots de los buscadores es un buen comienzo para labrar un alto posicionamiento.
De forma más avanzada y técnica, las palabras clave sin abusar, las descripciones META adecuadas, buenos títulos, la inserción de forma manual de una web en directorios de Internet de calidad, el mapa del sitio, unos archivos específicos para los robots de nuestra página y algunos técnicas complejas que nos guardamos, son el gran secreto para tener éxito en el posicionamiento. Todo ello lo ponemos en práctica en Net&Software de forma meticulosa para garantizar un buen posicionamiento a nuestros clientes.
Lo normal es realizar un buen SEO para un posicionamiento natural en unos 6 meses. En ocasiones puede funcionar en menos tiempo, quizás 4 meses, pero los objetivos suelen tardar por el trabajo que conlleva realizarlo de una forma eficaz y sin errores. También la dinamización de la web influye en el tiempo para que un posicionamiento tarde menos en llevarse a cabo.
Influye tambien el SEF (Search Engine Friendliness), que no es más que los títulos de las URLs sean descriptivos.
Aún con todo, el posicionamiento es un proceso de trabajo continuo y el tiempo de posicionamiento depende en gran medida de la página web e influye mucho la competencia del sector.
Los buscadores también penalizan las páginas que intentan salir beneficiados abusando o haciendo prácticas que para los buscadores son ilegales. Por ejemplo: la repetición de palabras clave sin sentido por los contenidos de una web, creando páginas alternativas para los robots, duplicando páginas de una web, creando artículos copiados de otras webs, descripciones META abusivas o con repetición de palabras clave, etc.
Parece ser que se produce un cierto bloqueo por parte de Google en los sitios webs que duplican URL en los mapas del sitio en XML (sitemaps) creados para los robots. Esas webs que parecen no moverse de una posición fija en el buscador puede ser por este motivo.
En Net&Software somos muy conscientes de estas penalizaciones y bloqueos, y sólo realizamos SEO profesional de calidad, siempre sin incurrir en este tipo de prácticas.
En Net&Software hemos creado un SEO para las palabras clave "creación de páginas web" para nuestra propia web y en tres meses y medio de SEO el resultado es el siguiente:
Como se puede observar, hay periodos de tiempo, que aún haciendo posicionamiento, la web parece estar estancada, incluso parece que retrocede. Siempre hay que tener en cuenta que todas las webs están compitiendo por un alto posicionamiento y las fluctuaciones de posición son normales.
Debido a los cambios posteriores en el título de nuestra página nuestra posición actual es algo más baja.
* Nota: Los 3 primeros resultados tienen fondo lila porque son enlaces de pago. A partir de esos resultados son los enlaces naturales.
Los cambios significativos de posicionamiento siempre suelen ser "en escalera".
El eje Y de la gráfica corresponde a la posición en Google.
El eje X corresponde a las fechas en los que se observó la posición en Google. Están referenciados numéricamente (del 1 al 19 por el número de observaciones).
Se puede observar el crecimiento en escalera donde las líneas verticales son las subidas súbitas que hace Google de nuestra página. También se observa que cuanta más alta es la posición en Google, más tiempo tarda en hacer la subida.
Para el posicionamiento del ejemplo hemos utilizado técnicas de optimización avanzada pero gratuitas (no de pago). Aunque obtener la posición 2 en Google se ha realizado en un tiempo excepcionalmente corto (3 meses y medio), lo normal suele ser entre 4 y 9 meses.
Aunque nosotros hayamos conseguido la posición 2, ésta fluctuará en cuestión de días hacia arriba o hacia abajo. Pero es normal que tienda a una posición alta debido al posicionamiento realizado.
Notas finales: En el momento de la exposición de este artículo, el SEO para las palabras del ejemplo ha caído al puesto 70 por un cambio en las palabras de posicionamiento, por la reestructuración de la web y por la renovación del aspecto gráfico con distinto contenido (y distinto SEO).
En la categoría de: Artículos sobre Páginas Web
Palabras Clave: artículo, páginas web, compatibilidad web, ie, netscape, firefox, chrome
Publicado: 09-01-2012 (19:48)
La compatibilidad de una web es imprescindible para hacer llegar la información que se desea a todo el mundo que se conecta a Internet, y no sólo a un grupo (sea mayor o menor). La compatibilidad de una web es independiente del tipo de página web, ya sea una simple página web a toda una web corporativa o una tienda online.
Para esto es imprescindible que las webs que se crean sean compatibles con todos los navegadores existentes en el mercado. Con ello, también se consigue la compatibilidad entre distintas plataformas (Linux, Windows, Mac, Unix, etc.)
La respuesta radica en la historia de Internet.
El hecho de que en el inicio de Internet existieran básicamente 2 navegadores (Netscape y Internet Explorer) luchando por hacerse con el control del mercado hizo que cada uno interpretara nuevas funciones para destacarse de su rival. Mientras que uno creó javascript, el otro creó jscript; mientras uno creaba unos atributos específicos para las etiquetas HTML, otro creaba otras.
Esto hacía que según el navegador usado vieras una web de una forma u otra. Para los webmasters, era habitual tener que implementar código doble para cada navegador, sobre todo en Javascript.
En el año 1998 era bastante habitual ver webs que en su pie de página (footer) se leyera Compatible con Internet Explorer, ó Compatible con Netscape Navigator.
La necesidad de unificación era evidente, y es por ello que, a día de hoy, existe un estándar aceptado por la comunidad internauta, el consorcio de la WWW, donde se especifican códigos estándar universales. A día de hoy, Internet Explorer, debido a su poder empresarial, todavía diferencia su código del resto de navegadores, Firefox, Opera; Google Chrome, etc. Los webmasters todavía tenemos que diferenciar el código para Explorer y para el resto.
A excepción de Explorer de Microsoft, el resto de navegadores interpretan una web casi de la misma manera, aunque con sutiles diferencias. Desde la versión 9 de Internet Explorer, Microsoft aceptó los términos de compatibilidad, y ha sido una convergencia de navegadores. Desde ese momento, los webmasters que hacen webs compatibles para esta versión de Explorer son visibles en todos los navegadores, lo que simplifica la programación.
En la categoría de: Art. para Webmasters y Joomla
Palabras Clave: sandbox, google, filtro, posicionamiento, seo, artículo, promoción web, castigo
Publicado: 29-04-2011 (15:16)
El Sandbox de Google es un filtro por el cual una web pasa a un estado de confinamiento para comprobar que es una web de calidad y de contenidos.
Google lo introdujo en 2004 para filtrar esas webs que se posicionaban en pocos días en las primeras páginas del buscador, y que sólo eran un cebo para prácticas ilícitas, ganancia de dinero en publicidad aprovechándose de las posiciones altas en buscadores, etc.
Debido a la inclusión de otros buscadores que ofrecen ayudas al usuario sobre la calidad que muestran en sus buscadores, Google implementó este filtro con la idea de ofrecer siempre páginas web de calidad en los primeros puestos de su buscador.
La práctica parece determinar que una web puede estar entre 2 y 5 meses retenida en Sandbox. Este periodo de tiempo suele ser suficiente para que Google determine si una web tiene unos contenidos que merecen la pena, y que no son exclusivos para realizar prácticas extrañas.
Al crear una web, se puede realizar posicionamiento y obtener unos buenos resultados en los buscadores. Entonces se entra en Sandbox, un periodo de cuarentena en el que la web perderá esas posiciones de privilegio durante esos meses. Serán una prueba de que la web se mantiene, y ofrecerá a Google una garantía de calidad en forma de espera. Una vez que salimos de Sandbox, obtendremos un posicionamiento adecuado y normal.
Se puede entrar de forma natural (por juventud de la página web), por contenidos y enlaces, y también se puede entrar a modo de castigo por haber realizado alguna práctica ilegal de posicionamiento.
Debido al secretismo del algoritmo de Google, también se dice que en realidad esta subida en los buscadores la realiza Google para promocionar webs nuevas (y no por haber hecho un posicionamiento) y que el "bajón" de posiciones que se experimenta después no es del filtro Sandbox, si no de devolución de esa web a su posición natural.
Aunque no sea una teoría muy aceptada, teníamos que mencionarla en este artículo.
Sea como fuere, exista o no el efecto Sandbox, la realidad es que las webs experimentan una bajada en su posición después de unos días en posiciones de privilegio.
Una solución, aunque no comprobada por Net&Software, es cambiar las DNS del dominio y cambiar el servidor. Parece que la solución es rápida, pero no sabemos los efectos adversos a largo plazo (si es que los tiene).
Es evidente que el Sandbox fue creado para evitar técnicas de promoción súbita. Pero hay personas que realizan estas técnicas de posicionamiento normal, esperan el tiempo necesario para salir del Sandbox, y luego realizan técnicas agresivas de posicionamiento. Queremos pensar que estas prácticas serán igualmente penalizadas por Google posteriormente al Sandbox.
Reflexivamente, el Sandbox es una práctica que consecuentemente aumenta la calidad de los contenidos ofrecidos por Google, y que siempre es en beneficio de todos los usuarios de Internet.
This site uses technology web 2.0. Videoconference Online Courses, Experts in Joomla!, Search Engine Optimization and web analysis