INVESTIGACION, LOGICA, Search Economy, Search Filosofía, Search Historia, SEARCH IDEAS, SEARCHOLOGY

Sobre “Google´s Deep Web Crawl” (II)

La función Get Scored en Search Economía

https://ithinksearch.wordpress.com/2009/08/09/sobre-“google´s-deep-web-crawl”-iii/

En la configuración del espacio Search económico del siglo XXI, encontramos “la función Get Scored” como dominante.

La función Get Scored es Matemática, Algorítmica, y, así, Lógica.

Se muestra principalmente en los Listing de los Motores de Búsqueda, o SERPS, y en el Tráfico.

La función Get Scored forma parte esencial de las estrategias empresariales en Internet, la conquista de mercados internacionales, y el nacimiento de las Naciones Algorítmicas, trascendentales en el Futuro.

Search Historicamente se considera que a principios del Siglo XXI el Link es el epicentro de la Naturaleza de Internet, y que sobre el Link gravita la esencia de la Búsqueda y el Resultado,  siendo éste condición del surfacing system.

Es tal la importancia del Link que la función Get Scored no puede considerarse libre sino que es vista como condicionada por el Link mismo y su Naturaleza.

Es decir, dada  la función Get Scored ha de aceptarse  que ésta está determinada, y más aún: que dispone de antecedentes a modo de condiciones lógicas, siendo vulnerable a acciones de optimizacion de mando por parte de Humanos.

Todo ello especialmente interesante desde un punto de vista de Teoría de Juegos entre Maquina y Humano.

La función Get y Post y los Motores de Búsqueda

A este respecto y en relación al análisis del Link, “Google’s DeepWeb Crawl” indica una diferencia fundamental entre 2 funciones, a saber:

  • Get y
  • Post

que me gustaría exponer y que es la que sigue:

The function Get forms tends to produce content suitable for indexing. While the result pages from a the Function Post are indistinguishable and hence not directly indexable.

Indicamos que en la estrategia SEO de principios del siglo XXI se asumío como correcto que solo aquel contenido indexado era Posicionable. Bajo esta hipotesis de trabajo SEO se inició el estudio de “Adequate URL generation”, ya  que éste era propedéutico en estrategias de visibilidad.

¡Así es, se entendía que únicamente el contenido indexable podía ser indexado!

*Observese que no es lo mismo lo-indexado que lo-indexable.

Y ya que si lo Posicionable era estratégico a orden Global, entonces debía atenderse a la Naturaleza de Get y Post en la Naturaleza del Link.

“Google´s Deep Web Crawl” es heredero de estas ideas search.

Bajo estas indicaciones puede observarse que para “Extracting  knowledge from the World Wide Web” es tan preciso  crear “Adequate URL generation” como el analisis de los llamados “keyword-based interfaces”.

Ante esto se nos plantea otro problema añadido: se precisa realizar una Taxonomia de data types of inputs.

Ahora bien, ¿con que fin? ¿y de qué manera? ¿cómo iniciar esta empresa faraonica de las ciencias cognitivas?

“Google´s Deep Web Crawl” nos dice:

Forms can have several input controls, each defined by an input tag.

Es decir:

Ante la inmesidad de  significados que una busqueda puede tener, creamos un conjunto que englobe pequeñas inmesidades. Subconjuntos de Significados que a su vez son ellos mismo Significados de sí mismos: los TAGS.

El SEO del siglo XXI

En una entrevista realizada a Enrique Aguilera, experto español en estrategia Internet indicaba éste algo especialmente interesante en relación al llamado SEO. Subrayaba que como tal el nombre de SEO es insuficiente para permitir una definición completa del mismo SEO, tal y como éste fue concebido a finales del Siglo XX.

Y que prefería una nueva definición en la que estaba incluido nuevos conceptos como Tráfico, el usuario y Analítica.

“Google´s Deep Web Crawl” dice:

We start with a small maximum limit per form. Over time, we measure the amount of search engine traffic that is affected by the generated URLs. If the number of queries affected is high, then we increase the limit for that form and restart the probing process.

De hecho, las indicaciones de Enrique Aguilera pueden ser leídas bajo la Hipótesis Clásica de Optimización, y también bajo 2 indicaciones de Google´s DeepCrawl Web, que comparto, y que siguen a continuacion:

  • “data on the web is about everything and boundaries of domains are not clearly definable.”
  • “the over-arching goal of a search engine is to direct users to relevant web sites in response to their queries”

El reto de Enrique Aguilera era determinar el modo adecuado para que 100.000 de url´s dispusiesen de visibilidad industrial. Y estas eran sus cavilaciones.

El termino SEO, refiere pues a la Optimización de data on the web, y asi refiere a Trafico. Y no a Posiciones únicamente.

De este modo su concepcion de  Trafico es considerada habitualmente en SEO bajo dos estrategias comerciales y como sigue:

  • Query traffic. O trafico por Búsqueda
  • Result traffic. O trafico por Resultado.

De hecho, si leemos con atención, advertimos que el Paper de los Googlers Google´s Deep Crawl Web es realmente un estudio de Optimización. Analiza cómo optimizar el Crawl de manera que la Web Invisible pueda ser visible, y para que el nuevo  Trafico que se va a crear pueda ser relevante. 2 obstaculos existen:

  • el coste computacional del crawl e indexacion de la web invisible podría ser enorme,
  • ademas, inicialmente, carece de un beneficio a traves de ADS.

Esta es la paradoja que plantea:

Puede haber Trafico por Resultado que no es indexado.  Y curiosamente Trafico por Busqueda que sí es indexado. Esta situacion rompe la clasica correspondencia entre busqueda y resultado.

Por ejemplo,

  • existen acciones humanas sobre un boton que no son indexadas.
  • Google conoce qué acciones humanas se han realizado pero aún no ha indexado los links
  • por lo cual no pueden ser tampoco ser ni conocidas y tampoco ser Visibles.

Mi conclusion es que existen así 3 crecimientos potenciales:  los links de los agregadores (tag), el nacimiento de nuevas webs visibles (video, movil, mapas etc) y el crecimiento de nuevas url´s, y finalmente, el mundo de la web invisible, el cual solo puede ser industrial si los Googlers tienen éxito. Y que quiza podamos estudiar.

Aspectos filosóficos de la Web Invisible

En primer curso de filosofía analítica se plantea el siguiente problema:

Cae un arbol en desierto.
No existe ningun ser humano que escuche o vea que ha caido el árbol.
Pregunta: ¿ha hecho ruido ese árbol?

Ocurre del mismo modo con la Web Invisible. Aun sin tener constancia de ella, sabemos que dispone de su importancia search.

Todo ello es inquietante pues es indicativo de que ademas de la llamada Web Invisible tambien existe un mundo humano que no ha sido aun indexado

Planteo una pregunta a los lectores, pues tal vez puedan ayudar. Presento diferentes clasificaciones de web:

  1. la web opoca
  2. la web privada
  3. la web propietaria
  4. y finalmente la increible y verdadera web invisible.

¿Considera el lector que esta clasificacion es adecuada? ¿añadiria alguna mas? ¿subdivisiones o clases?

Estas son a nuestro ver las tendecias search de las futuras naciones algoritmicas, el llamado SEO y el concepto de Tráfico, y queda veladamente revelado en “Google´s Deep Web Crawl”.

Como vemos, en Internet no hay una simetria perfecta.

Ver foto grade de Web Invisible >>

Advertisements
Standard

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s