Community health initiative/ja

From Meta, a Wikimedia project coordination wiki
Jump to navigation Jump to search
This page is a translated version of the page Community health initiative and the translation is 91% complete.

Outdated translations are marked like this.
Other languages:
Deutsch • ‎English • ‎Tiếng Việt • ‎Türkçe • ‎dansk • ‎español • ‎italiano • ‎polski • ‎português do Brasil • ‎русский • ‎العربية • ‎فارسی • ‎हिन्दी • ‎বাংলা • ‎ไทย • ‎中文 • ‎日本語
Light-Bulb icon by Till Teenck green.svg

コミュニティの健全性のイニシアチブ
ウィキメディアのボランティアコミュニティを助け、私たちのプロジェクトにおけるハラスメントと破壊的な行動のレベル低減をめざしています。

ウィキメディア財団のAudiences (観衆) とCommunity Engagement (コミュニティ関与) の両チームはウィキメディアのボランティアコミュニティを助け、私たちのプロジェクトにおけるハラスメントと破壊的な行動のレベル低減をめざして、研究と製品開発ならびに方針展開のプロジェクトを多年度にわたり進めています。

この取り組みはウィキメディア財団の2015年ハラスメント・アンケート (2015 Harassment Survey) で報告された嫌がらせの主要な形態に対応し、さまざまな幅広い行動をまとめています。コンテンツの破壊行為、つきまとい、誹謗中傷、あおり、晒し、差別など、個人を狙った不公正で有害な関心に基く行動です。

これらにより、MediaWikiソフトウェアのツール (嫌がらせ対応ツール参照) ならびに破壊的な行動により最も影響を受けるコミュニティの方針 (方針の展開と徹底参照) が改善されます。ツールを使用し私たちの努力を成功に導くボランティアの皆さんに参加とサポートをお願いしてこそ、これらの改善が実現します (コミュニティのインプットを参照してください)。

現在及び直近のプロジェクト群

また同チームは新しいブロックツールを構築中です。より正確で洗練されたツールを提供して、管理者がハラスメントの加害者の対処をより適切にできるようにしたいと望んでいます。このプロジェクトは[[<tvar|granularblock>Community health initiative/Partial blocks</>|ページと名前空間のブロック]]を対象に含みます。

利用者を調停者に通報するツールと手順の改良について研究を開始しており、2019年度の重点課題として取り組む計画です。意思決定の場である利用者通報システムの協議2019に参加しませんか!

背景

Community Health Initiative Wikimania Poster.jpg

ウィキメディアのプロジェクトにおけるハラスメント

ウィキペディアなどのウィキメディアのプロジェクト群では通常、ハラスメントが発生する空間はトークページ(記事、プロジェクト、利用者)、掲示板、利用者ページおよび編集の要約欄です。編集合戦やつけまわしからハラスメントに発展することもあります。争いはコンテンツをめぐる争いに由来しがちで、ソースの信頼性、視点の中立性または記事の書式設定や、コンテンツの階層に関する意見の相違が見られます。意見の違いが議論にとどまらずに、個人的存在と結び付けて相手を敵視し始め、ついにサイトから追い出そうとする時点でハラスメントになる可能性があります。コンテンツがアイデンティティ(性別、人種、性的指向、国籍など)と密接に関連している場合には、特にこの不健全な方向転換が発生しやすくなります。加害者にとって、被害者を自分と反対の考えの生きた証拠と把握するのは簡単だからです。なかでも被害者が歴史的に恵まれていない集団出身の場合、さらにその人物がプロジェクトに参加中に出身や経歴の情報を公開した場合に当てはまります。

英語版ウィキペディアのコミュニティ (を含むほとんどのプロジェクト群) では守るべき方針を示し、礼儀を忘れないハラスメント (英文)、個人攻撃はしない論争の解決をまとめています。これらの方針の精神は心に響くものの、MediaWiki のソフトウェアの不備や貢献者数に対する積極的な管理者の比率などを考慮すると強制は簡単ではありません[1]。紛争解決プロセスはユーザー間の問題解決を促しており、ユーザーが管理者掲示板で管理者に、あるいは最終的には極端な状況でArbComに通報するのはその後のことです[2]

2015年ハラスメント・アンケート - 結果発表

オンラインのハラスメントは、ユーザーが対話するほぼすべてのウェブ上のプロパティで問題になります。2017年、ピューリサーチセンターはインターネット利用者全員の41%がオンラインで嫌がらせの犠牲者であると結論づけました[3]。ウィキメディア財団は2015年にHarassment Survey (ハラスメント・アンケート) を実施、ウィキメディア利用者3,845人の協力を得て、ウィキメディアのプロジェクト群で発生するハラスメントを深く理解することができました。回答者の38%がハラスメントを受けたと確信し、同じく51%がハラスメントを目撃しています。2016-17年にJigsaw社とウィキメディアの研究者はDetox研究プロジェクトで、機械学習技術を使用しウィキペディアのハラスメントを評価しました。英語版ウィキペディアで特定された攻撃全体のわずか18%しかブロックまたは警告の対象とならなかったこと、登録利用者による攻撃は67%、攻撃全体のほぼ50%は年間編集100回以上の寄稿者によることがわかりました[4]

ウィキメディアの2017 Community Engagement Insights Report (2017年版コミュニティ関与部門洞察報告書) によると、アンケート回答者4,500人の31%がウィキメディアのオンラインまたはオフラインの空間にいる間ずっと不安を感じていることが判明しました。ユーザーの49% (400人) が不快感を感じて活動を控えたことがあり、過去12ヶ月間にウィキペディアでいじめやハラスメントを受けたユーザーは47% (370人) に上ると示しています。さらに職員ほか担当者に紛争を報告した人のうち、60%が問題は「全く解決されていない」と答え、54%が担当者とのやりとりは「何の役にも立たなかった」と言っています。同報告書の2018年版も同様の結果を提示しており、安全性の不安を訴える回答は微減しました。

コミュニティ健全性イニシアチブにおいて、この研究は説明と追究に役立つものであり、この努力の成功に至る大枠の研究は、ようやく道のりが始まったばかりです。

コミュニティによる新しいツールの要望

ウィキメディアのコミュニティはメンバーを悪意のある人や有害なユーザーから守ろうと、長い間苦労してきました。管理ツールセットは管理者がプロジェクトから破壊的なユーザーをブロックするために使用するのに、MediaWiki ソフトウェアの初期段階から変更されてきませんでした。これまでボランティアからウィキメディア財団に対して数回にわたりブロッキングツールの改善を、次のような機会に要請しています。

このイニシアチブの準備にあたり、私たちは活発な管理者や関係者と、現在のツールやプロセスに関する問題について議論してきました。これらの議論を土台に、管理者や関係者が緊急の対策が必要と指摘した重要なエリアで、改善の要請に結びつきました。すなわち、ボランティア用の通報システムの改良、問題の早期発見と対処方法を実現するよりよい方法の導入、さらにブロックの手続きのツールやワークフローの改善などです。これらの対話はプロセス全体を通じて継続されます。成功を招くには、コミュニティの皆さんの意見と参加が不可欠です。

外部からの資金調達

2017年の助成事業企画書。「ウィキメディア・プロジェクト群におけるハラスメント対策ツールについて」
(Anti-Harassment Tools For Wikimedia Projects)

2017年1月、ウィキメディア財団はこのイニシアチブの支援に Craig Newmark Foundation および Craigslist Charitable Fund より50万米国ドルの初期資金を調達しました[5]。2箇所の助成機関から各25万米国ドルを受け、ボランティアの編集者や関係者が使うツールの開発を支援、ウィキペディアにおけるハラスメント低減と加害者のブロックを目指します。 助成事業企画書はウィキメディア・コモンズで読むことができます.

目標

  • ウィキメディア・プロジェクト群で発生するハラスメントの総量を減らす。
  • ウィキメディア・プロジェクト群のハラスメントで実際に解決した比率を高める。

成功の尺度

ハラスメントの測定は簡単ではないものの、私たちの仕事がコミュニティに与える影響を確認したいと考えています。 現在のアイデアは:

  • Detox や Sherloqまたは類似のシステムを介して英語版ウィキペディアにおける攻撃的発言を測定、個人が特定できる事案の割合を減らす。
  • ウィキペディアの管理者ではないのに、嫌がらせを目撃したと通報するユーザーの割合を減らす。2015年のハラスメント調査のフォローアップとして測定。
  • 管理者に紛争処理における正確な意思決定に自信を持ってもらう。そのためにフォーカスグループまたは相談で能力を判定。
  • 新規利用者の定着率を上げる。

年間および四半期の目標

四半期の進捗状況に関するコメントはCommunity health initiative/Quarterly updates (コミュニティ健全性イニシアチブ/四半期の更新状況) をご参照ください。

コミュニティのインプット

コミュニティの意見を集め、すりあわせあるいは話し合うことは、このイニシアチブにとって重要な成功の要素です。コミュニティに使ってもらおうと開発中の機能も — 中身のないものを設計しては失敗は明白です。

このページに示した案は助成金事業で提案されたものも、その他の場所でも、(ハラスメントの被害にあった人や貢献者、管理者をふくめて)コミュニティから反応が集まるにつれ、あるいは私たちが開発したソフトウェアからの学びを得て、変化していきます。コミュニティからの反応には以下のものがふくまれ、それに限定されません。

  • 私たちの目標を社会化する
  • コミュニティの関係者とともに、アイデア創生や洗練化、検証とまとめを行う
  • 表現の自由と政治的な正しさの対比について会話を交わすこと。このプロジェクトの対象が、皆さんが同意する種類の嫌がらせ(明らかななりすましの破壊行為、殺人の脅迫)と、人によって受け止め方の異なる種類の虐待(性別、文化的背景など)のどちらもふくむと認識されることが非常に重要。

このプロジェクトは、単なる「社会正義」の力比べだと見なされては成功しないのです[6]。 このイニシアチブの過程では、ストリーム生中継を使ったワークショップや、ハッカソンあるいはウィキマニアの場で顔を合わせるワークショップを開いたり、オンラインのコミュニティ相談会などに加え、コミュニティと定期的にwikiコミュニケーション(トークページ、電子メール、チャットルーム)を介してコミュニケーションを取る予定です。コミュニティの健全性に関するイニシアチブを論じるには、現時点ではTalk:コミュニティの健全性イニシアチブが最良の場所です。

嫌がらせ対応ツール

簡単に言えば、嫌がらせが発生したとき、情報に基づいた意思決定をタイミングよく下すため、貢献者と管理者の力となるソフトウェアを構築したいと考えています。 嫌がらせに対処し対応する上で、新たなツールが有益な4分野が特定されています。

探知

編集者がより簡単かつ効率的に、嫌がらせ行為を特定してフラッグを付けられるようにしたいと考えています。現在、どうすれば嫌がらせが実際に始まる前に防止できるか、深刻な問題に発展する前に、軽微な出来事をどのように解決するか問題を整理しています。

想定される機能:

  • AbuseFilterパフォーマンス管理、ユーザビリティと機能の改善
  • 信頼性とProcseeBotの精度向上
  • 適切なツールに対するなりすまし対策の改善
  • コンテンツの不正行為や編集合戦、つきまとい、ウィキ管理者や職員に対する暴言を表面化させる機能

報告

Detox担当の調査によると、英語版ウィキペディアではハラスメントを実際に報告する件数が実情よりも下回っています[4]。嫌がらせの犠牲者はたとえ虐待の報告に無力感を感じても、それを理由に編集を中止するべきではありません。私たちは現在のワークフローより、犠牲者のプライバシーを尊重し、混乱が少なくストレスの少ない報告方法に改善したいと考えています。現在、自分自身の無実と嫌がらせ加害者の虚偽の証明は被害者に課せられていますが、その重荷はMediaWikiソフトウェアが実行するべきと信じています。

想定される機能:

評価

管理者が行動をめぐる紛争の一連の出来事を正しく分析し評価するには、MediaWikiの差分や履歴、特別ページを熟知することが不可欠です。ボランティアが作成した編集者関係性アナライザーや[WikiBlame]などのツールは便利ではあるものの、現状のプロセスでは時間がかかり過ぎます。ボランティアが嫌がらせの事案を理解し評価し、最善の対応策を知らせるツールを構築しようとしています。

想定される機能:

  • 強力な相互作用のタイムラインツールにより、Wiki管理者がユーザー2人の間の相互作用を理解し、ハラスメントの案件で十分な情報に基づいた意思決定を行うことを可能にします。
  • Wiki管理者用に非公開のシステムを準備し、ユーザーの履歴から権限の制限や仲裁の決定を含めた嫌がらせや虐待の事件に関する情報を提供します。
  • Wiki管理者が調査の現状と懲戒処分を管理するダッシュボードシステム
  • ウィキ管理者がハラスメント事例の管理に使う、ウィキのプロジェクト群や言語群を横断するツール。

ブロック

コミュニティや内部の特定の分野から厄介な立ち場の人を除外し、さらにブロックされた人のサイトへの復帰が困難になるよう、既存のツールを改善し、必要に応じて新しいツールを作りたいと考えています。

それら改善にはすでに2016年コミュニティ要望リストによって実現したものがあります。詳細はブロック・ツール(Community Tech/Blocking tools)を参照してください。

仮定される機能:

  • ページ単位およびカテゴリ単位でブロックするツールにより、トピック禁止を補足してウィキの管理者がプロジェクトに貢献する破壊的な利用者を完全に排除することなくリダイレクトすることができる。つまりこれにより、問題の初期の段階でウィキの管理者が気兼ねなく決定的な対処をしやすくなる。
  • それぞれのユーザーがEcho通知や電子メール、利用者名前空間で自分自身と連絡を取れる相手を制御できるツール。
  • グローバルなチェックユーザー用のツールでプロジェクト群を横断して使え、クエリ1回で利用者名とIPアドレスやユーザーエージェントを照合したり、すべてのウィキメディア・プロジェクト群の投稿を調べたりできる。
  • なりすましをブロックするツールをふくむ、より高度なブロック用ツール

作業の優先順位

現在、プロジェクトは〈エピックなバックログ〉コラムの反ハラスメントのファブリケーター・ワークボード(Phabricator)の最優先課題です。ファブリケーターのチケットとして皆さんの経験を共有しませんか。このページの議論のページもしくは電子メールで非公開でお送りください。

プロジェクトの優先順位は次の点を考慮して、プロダクトマネージャーが付けます。

  • 準備- 設計と定義を行い、開発の準備ができたものとは? 何か障害はありますか?
  • 価値- ユーザーにとって最大の価値とは何ですか? まず初めに、最大の問題を解決するものは何ですか? 私たちの研究から刺激的な機会は何か見つかりませんでしたか? 以前の機能で新たな機会や問題が発見されましたか?
  • 実現可能性- 与えられた時間枠と開発者の能力を条件にすると、達成できることは何でしょうか? 技術面で取り組む準備ができていますか? 私たちの作業を速めるために使える外部の開発者サポートはありますか?
  • サポート- 現在のワークフローに参加しているユーザーからどんなサポートを受けましたか? 現在、ウィキペディアで嫌がらせを受けている人々から寄せられたアイデアで勢いがあるものとは?

方針の展開と徹底

新しいツールの構築ばかりでなく、最大のコミュニティと協力して、ユーザーの行動の方針が明確で効果的であること、さらに方針の徹底を担う管理者が十分に準備を整えていることを保証します。

豊富なデータを得ることができる大規模なコミュニティとして英語版ウィキペディアを手始めに対象とし、行動に関する問題を英語版ウィキペディアでどのようにa)方針の対象にしているのか、そしてb)コミュニティ、特に問題の議論と対応をする掲示板で徹底しているか、貢献者に研究と分析結果を提供します。特定の問題への取り組みや効果の研究に加え、他のウィキメディアプロジェクトで成功した異なるアプローチといった、代替形式を特定する研究をします。これにより、コミュニティが既存の慣習に加え、情報に基づく変更を取り入れることができます。

関連項目

脚注

  1. 現在の管理者。英語版ウィキペディアの管理者一覧は"Wikipedia:List of administrators/Active". 2017-02-13. 
  2. "Wikipedia:Harassment § Dealing with harassment.". 2017-02-12.  ウィキペディア英語版の「ハラスメント対応」
  3. Duggan, Maeve (2017-07-11). "Online Harassment 2017". Pew Research Center: Internet, Science & Tech. Retrieved 2017-07-25. 
  4. a b $Blog
  5. "ウィキメディア・ブログ – ウィキメディア財団、Craig Newmark Foundation と Craigslist Charitable Fund から50万ドルを受領。健康で包括的なコミュニティ支援". Retrieved 2017-02-13. 
  6. "File:Wikimedia Foundation grant proposal - Anti-Harassment Tools For Wikimedia Projects - 2017.pdf - Meta" (PDF). meta.wikimedia.org. Retrieved 2017-02-14.