Lo genial es que utiliza diferentes tipos de crawlers.
Microsoft tiene tiempo pensando en un problema muy fuerte dentro de las empresas, sobre todo las que son muy grandes y han tenido tiempo de crear un cúmulo enorme de información. ¿Como hacer para catalogarla?
Sabemos que ese es el trabajo que Google realiza en la web: buscar la información dondequiera que esté y le da un cierto sentido para poder mostrárnosla rankeada a cualquiera que realice una búsqueda. Sin embargo dentro de la empresa las cosas no son tan sencillas ya que la información puede venir de muchas maneras (no solo páginas web): tenemos tablas de Excel, dibujos, documentos, etc. ¿Como catalogarla?
Pues aquí es donde entra en Proyecto Barcelona de Microsoft que ha puesto un post en su blog en el que nos dicen que han dado con la manera de logarlo creando web crawlers locales que podrán indexar toda la información y presentártela de una manera coherente para que cualquier persona que trabaje en la matriz pueda saber que en su sucursal 40 tienen información almacenada que es la que están buscando.
Lo novedos es que no utilizan un solo web crawler sino muchos uno para cada tipo de información en particular como puedes ver en la gráfica de arriba. Se ve bastante prometedor ya que se arranca el desarrollo definitivo de algo que como te dije debería ser terreno Google pero Microsoft les lleva la delantera, por lo menos en el concepto.