Ah oui ben si tu ne crois pas aux disallow on est mal barrés...
Aucun bon webmaster ne croit aux disallow.
Tout simplement parce que si l'on ne veut pas qu'une page soit indexée, il faut peut-être commencer par ne pas donner publiquement (autrement dit dans robots.txt) son url... :rolleyes:
Il vaut peut-être mieux en empêcher l'accès (par mot de passe).
Il n'y a rien d'étonnant à ce qu'une page accessible par n'importe qui finisse par être indexée par google.
en gros, si je te résume, tu sous-entends que Google ignore les disallow ? Moi j'veux bien hein, tu penses ce que tu veux, mais... 
Je sous-entends que les Disallow ne devraient pas exister tellement c'est une aberration de conception : exposer à tout le monde une url, afin que personne ne la visite. C'est absurde.
En tant que webmaster, si je veux qu'une page ne soit pas indexée, je vais en protéger l'accès (par mot de passe ou autre), et surtout ne pas en parler dans le disallow.
Faire confiance au disallow, c'est comme avoir un coffre-fort, et écrire dessus "attention, ne tapez surtout pas le code 3824, cela ouvrirait le coffre, or son contenu est secret", et espérer que les gens vont respecter ce qui est écrit. Ça marche si tout le monde est gentil, mais c'est loin d'être le cas sur le web. Alors, google va peut-être respecter le disallow, mais d'autres robots ne vont même pas lire le robots.txt. Et d'autre part, des internautes lambda peuvent tout à fait donner l'url de la page sur des forums, et dans ce cas, que va faire google quand il passe sur lesdits forums ? Il va gentiment suivre les liens et indexer la page.
Bref, pour résumer, faut pas s'étonner qu'une page soit indexée, même si elle est dans le disallow. Au contraire, pour qu'elle ne soit pas indexée, mieux vaut que son url n'apparaisse nulle part.
Tiens, je viens de voir d'ailleurs que freenews n'a pas de robots.txt. Un bon point
