Mientras usaba el verificador de enlaces W3C , descubrí que mi Wiki de Github no se puede rastrear:
https://github.com/aegif/CmisSync/wiki/Getting-started-with-CmisSync-development
Estado: (N / A) Prohibido por robots.txt
Esto es lamentable, ya que me gustaría que la gente encuentre fácilmente este Wiki en los motores de búsqueda.
PREGUNTA: ¿Cómo puedo hacer que mi Wiki de Github pueda rastrearse por los motores de búsqueda?
¿O me equivoco y el archivo robots.txt de Github está realmente bien?
Respuestas:
El archivo GtHub robots.txt no permite explícitamente el rastreo de las páginas wiki, por ejemplo, en la sección Googlebot:
Como este es el archivo de robots de todo el sitio, no hay forma de evitarlo.
Es una opción interesante, ya que GitHub describe los wikis como un lugar para "compartir contenido de formato largo sobre su proyecto". Dado que, por defecto, los wikis públicos son editables por cualquier usuario, tal vez es una protección dura contra los spammers.
fuente
Las wikis de GitHub pueden buscarse mediante motores que lo admiten. Vea las dos primeras líneas de https://github.com/robots.txt :
Probablemente sea para analizar varios formatos wiki, etc.
Por ejemplo, busque en Google el "protocolo de broker openrefine" y el primer resultado es una página debajo de un wiki de proyecto Github.
fuente