Cómo levantar un dominio expirado y aprovecharse de su tráfico orgánico

Paso 1: Elección del dominio
– Necesitamos un dominio expirado que aún tenga tráfico orgánico. Para ello buscamos en expiring.es  y usamos las métricas de Semrush para conocer la calidad y cantidad de tráfico orgánico que dicho dominio dejó al expirar.
Con Semrush podemos ver la cantidad de palabras clave en la que el dominio posiciona (para las 20 primeras posiciones), el tráfico orgánico estimado que traen dichas palabras clave y un valor también estimado del coste en adwords que supone dicho tráfico, es decir, lo que valdría envíar ese tráfico a las palabras clave en las que está posicionando el dominio. Obviamente parte de dicho coste será nuestro beneficio una vez levantemos el dominio y coloquemos adsense. Estos valores están basados en los 30 dias anteriores de la fecha actual.

A continuación un ejemplo con los datos en semrush (actuales) de un dominio que capturé alrededor de Mayo del 2014:
37 PALABRAS CLAVE (SOK, posicionando para 37 palabras clave en google.es)
112 TRÁFICO (SOT, 112 visitas mensuales de promedio)
$359 COSTE DE TRÁFICO (SOC, $359 es lo que pagaría un anunciante por dicho tráfico en adwords)

Como véis a pesar del poco tráfico, éste se paga muy bien. Dicho dominio me aporta ~$140 mensuales desde entonces. Los datos de tráfico orgánico apenas han variado desde entonces.

El ejemplo lo dejo para que os hagáis una idea y forméis vuestro propio criterio a la hora de elegir un dominio con tráfico. Está claro que a mayor coste de tráfico, mayor será el beneficio que obtengamos

Paso 2: El contenido.
– Tenemos dos fuentes principales de extracción de contenido: Archive.org y google caché.
Aquí ya os tenéis que buscar la vida, podéis hacer un script o que os lo hagan para scrapear dicho content.
La idea es volcar el contenido de forma estática y quede una web totalmente old school, con carpetas e index.html por url.

Yo empecé tirando de google caché pero me di cuenta de que archive.org tenía más contenido (al menos para expirados) así que al final solo acabe usando archive.org
Hay un un soft de unos rusos para archive.org por 20usd para extraer webs completas. Si alguien lo quiere que me envíe un mail y le paso la URL.
Con este software prácticamente tenemos una copia estática de cualquier web en archive.org en el periodo que elijamos.

Pero nos encontramos con un problema… ¿Qué pasa si el dominio ya tenia codigos de publicidad y tracking o cualquier otro script que no nos interese?
Para ello usé un programita llamado FAR Html (Find And Replace) donde podemos buscar y reemplazar cadenas de codigo html a través de wildcards en varios archivos a la vez.
Analizamos el contenido descargado seleccionando la carpeta donde hemos volcado la web y reemplazamos por ej. los codigos de adsense, eliminamos el tracking de analytics etc… la idea es dejar la web limpita.
Si no hubiera código adsense hemos de elegir una ubicación en la web (echando un vistazo rápido a través de la estructura html) y reemplazar dicha etiqueta/ubicacion incluyendo nuestro código dentro de la propia etiqueta/ubicación.

Una vez tenemos hemos limpiado el código nos queda un último paso antes de subirla al servidor, y es crear un sitemap.xml localmente para que google vuelva a coger todas y cada una de las urls.
Para ello hay generadores offline de sitemap gratuitos (SSM gen creo que se llama el que uso)

Y bueno ya sólo quedaría configurar el dominio y subir la web al hosting.

Como nota final decir que en semrush podemos ver también qué urls/keywords son las más fuertes para dominio (relación tráfico/posición/cpc). Para esas URLs no estaría de más revisar y meterles mano si no han quedado del todo bien o por si queremos complementar con más contenido.