Avez-vous déjà remarqué, dans les fichiers logs de votre site web, une erreur 404 récurrente qui se présente comme ceci :
https://gadlab.net/humans.txt
https://gadlab.net/humans.txt
https://gadlab.net/humans.txt
On pourrait penser, de prime abord, qu’il s’agit de quelques Geeks en herbe qui s’amusent à trouver LA faille sur votre site ou d’un robot qui cherchent des informations, qui ne sont pas présentent là où elles devraient se trouver.
Mais en creusant un peu, on constate qu’il en est tout autre…
Une «nouvelle» tendance
Si l’on recherche le mot clé «humans.txt» sur le web, on peut constater qu’une certaine littérature existe bien à ce sujet et que l’on peut effectivement y trouver un lien avec le fichier «robots.txt». Mais au lieu d’indiquer les pages à explorer aux robots (ou à ne pas explorer), humans.txt fournit des informations sur les personnes et les techniques qui se cachent derrière le site.
Il s’agit d’une initiative dont le but est de connaître les personnes qui se cachent derrière un site web. C’est un fichier TXT qui contient des informations au sujet des différentes personnes qui ont contribué à la construction du site.
Cette idée est plutôt intéressante, et potentiellement utile, si les mêmes informations ne sont pas déjà disponibles dans une page «Contact» ou «À propos».
Créez votre propre «humans.txt»
Pourquoi? Parce que c’est simple et rapide à faire. Parce que ça n’a pas d’impact sur le code. Assez souvent, les propriétaires du site ne souhaitent pas que les auteurs y ajoutent leur signature ; soi-disant parce que ça alourdit les pages et rend le site moins rapide.
Du coup, ce moyen est idéal pour signer votre création numérique et remercier toutes les personnes qui ont participé au projet.
Internet a été conçu pour les humains…
… et on ne le répétera jamais assez : on crée déjà un fichier remplis d’informations utiles pour les robots des moteurs de recherche : robots.txt.
Pourquoi ne pas en faire un pour nous ?