InternetArchiveBot/Questions fréquentes

From Meta, a Wikimedia project coordination wiki
This page is a translated version of the page InternetArchiveBot/FAQ and the translation is 100% complete.


Cette page contient une liste des questions fréquentes posées concernant InternetArchiveBot.

Q : Comment puis-je exécuter le robot sur un ensemble de pages, j’ai besoin qu’il y soit exécuté ?

R : Vous pouvez utiliser l’outil d’ajout à file d’attente pour faire cela. Si vous avez une liste de pages qui nécessitent d’être analysées par le robot, placez la liste des articles sur lesquels vous voulez envoyer le robot, un article par ligne, et cliquez sur envoyer. C’est tout. Votre demande va se voir attribuer un numéro d’identifiant de tâche et sera placée en file d’attente jusqu’à ce qu’un processus puisse travailler dessus. Vous pouvez suivre son évolution en temps réel sur l’interface.

Q : Le robot a changé l’URL d’archive contre l’URL d’origine, dans un modèle de référence. Cependant, l’URL originale est morte. Que s’est-il passé ?

R : IABot a simplement déplacé l’URL d’archive dans le bon paramètre, celui conçu pour les URLs d’archive, et laissé l’URL originale dans le champ dédié à l’URL d’origine. Cela permet de rester cohérent avec les autres modèles de référence utilisés, ainsi que de se conformer à l’utilisation prévue. Si cela est possible, les archives devraient être placées dans le paramètre URL de l’archive approprié, et l’URL originale devrait être placée dans le paramètre URL approprié.

Q : Le robot continue de mettre le bazar sur une source précise dans la page. Comment je peux arrêter ça ?

R : Cela dépend. Si le bot est en train d'essayer d'étiqueter la source comme "brisée" de façon continue, ou s'il continue d'agréger une URL d'archives défectueuse, alors vous devriez aider le robot en lui indiquant que cette URL n'est pas de bonne qualité en utilisant l'outil d'administration d'URL. Cet outil permet aux utilisateurs d'inspecter les URLs que le robot a trouvées et de corriger n'importe quelle erreur associée avec celles-ci. Cela permet au robot d'être plus fiable. Si le robot casse la syntaxe ou s'il formate incorrectement l'URL source, vous devez le signaler avec l'outil de rapport d'erreurs.

Q : Le robot est en train de faire des mauvaises éditions à toutes les sources dans la page. Je ne crois pas qu'il vaille la peine qu'il s'exécute dans cette page spécifique. Comment puis-je éviter que le bot édite la page ?

R : Soyez prudent avec cela. Êtes-vous sûr que le robot abîme plus la page qu'il ne l'arrange ? Envisagez ceci : est-il en train de détruire le format de la page avec des éditions défectueuses ? ou simplement de mal étiqueter certaines sources et en fournissant des URL d'archives défectueuses pour d'autres ? Si la réponse est affirmative à la première question, informer de ceci avec l'outil de rapport d'erreurs, puisque c'est une erreur qui nécessite une correction de bug. Sinon, si vous êtes sûr que les sources actuelles dans la page ne bénéficieront pas du travail du robot ou que cela se terminera par encore plus de nettoyage après le passage du robot, vous pouvez placer {{nobots|deny=InternetArchiveBot}} dans l'article ou utiliser {{cbignore}} dans les sources individuelles que le robot pourrait ruiner (ce qui maintiendra le robot éloigné de cette page). Cela signifie aussi que n'importe quel problème avec le lien de référence ne sera pas traité dans cet article jusqu'à ce que l'étiquette soit retirée. Pour éviter ceci, aidez le robot à être plus fiable en corrigeant les données erronées avec l'outil d'administration d'URL et l'outil d'administration de domaines.

Q : Qu'est-ce que sont {{cbignore}} et {{nobots}}?

R : {{cbignore}} est un modèle vierge spécifique que certains wikis utilisent pour signaler à IABot d'ignorer complètement une référence ou un lien externe sur une page. Un exemple de sa documentation et de son utilisation peut être trouvé dans w:en:Template:Cbignore. {{nobots}} est un modèle d'exclusion que certains wikis utilisent pour signaler aux robots compatibles de rester à l'écart d'une page. IABot est compatible avec les bots et nobots, et pour éloigner spécifiquement InternetArchiveBot, utilisez {{nobots|deny=InternetArchiveBot}} n'importe où sur la page pour ne garder à l'écart que IABot.

Q : Le robot a étiqueté une source comme étant morte, mais elle ne l'est pas. Que s'est-il passé ?

R : Si le site n'a été indisponible que temporairement, mais assez longtemps, le robot a peut-être considéré la source comme morte, car le site n'a pas réussi à être validé comme vivant 3 fois de suite, au cours de 3 vérifications suffisamment espacées, ou le site a mis le robot sur une liste noire, et celui-ci est incapable d'évaluer le rythme cardiaque du site. À ce stade, le bot le considère maintenant comme définitivement mort, et vous devez le signaler avec l'outil de rapport de faux positifs. Cet outil corrigera dans la plupart des cas le problème sur le bot par lui-même. Si ce n'est pas le cas, cela sera signalé aux racines de l'interface.

Q : Le robot a ravagé la page. Qu'est-ce qui s'est passé ?

R : Veuillez le signaler avec l'outil de rapport de bogue, et n'appliquez pas {{cbignore}} ou {{nobots|deny=InternetArchiveBot}}. La page sera utilisée pour reproduire le bogue, et il est probable que lorsque le bogue sera corrigé, le bot s'avérera utile pour la page.

Q : Le nombre de liens sauvés est différent des liens effectivement sauvés. Y a-t-il un problème ?

R : Ne vous alarmez pas, cela peut arriver. Si le nombre effectivement corrigé est inférieur à celui annoncé, cela signifie que quelque chose s'est mal passé avec le lien, et qu'il a été ignoré. Ceci est facilement corrigé en corrigeant manuellement la source en utilisant la source fournie, si cela fonctionne. S'il est plus élevé, cela signifie qu'il y a deux sources identiques, caractère par caractère, et qu'elles ont été reprises une fois en interne, mais remplacées plus d'une fois en externe. Il n'y a pas lieu de s'inquiéter.