人間の敵か味方か...グーグル検索を置き換える? 今さら聞けないChatGPTの正体
AIの質は「集合知」次第
対話型AIの急速な普及に伴い、AIに大きな間違いをさせないため、どのような工夫が必要かといった議論が活発になっている。AIは入力されたデータから自己学習していくシステムであるため、その内容をプログラムの作成者が完全にコントロールするのは難しい。
しかしながらAIというものが、ネット上にある情報を収集して答えを得る以上、最終的な正確性を担保するのはネット空間に存在する情報の質ということにほかならない。
AIが劣悪な情報や文書ばかりが飛び交っている情報空間から学習を繰り返した場合、AIが生成する文書もレベルが低いことになる。一方、良質な情報が行き交う空間でのデータを学習したAIは、おそらく優れた答えを返してくることになるだろう。つまり最終的にAIの質を担保するのは、社会全体の質ということになってしまう。
この話はいわゆる集合知の議論と同じである。
集合知というのは、多くの人の見解を集めるとより正しい結論が得られるという概念である。例えば、健全に機能している市場が出した答えというのは、少数の専門家が出した結論より正しいことが多い。
集合知が正しいことの事例としてよく引き合いに出されるのが、1986年に起きたスペースシャトル「チャレンジャー号」の爆発事故である。事故直後、原因もよく分からない段階から、ガス漏れを起こしたリングを製造する会社の株だけが下落を始めた。後日、調査結果が判明し、その会社のリングが事故原因と特定されたときには、株価は既に大幅に下がった後だった。
つまり、多くの人の見解は完璧に正しかったことになる。しかしながら、集合知がとんでもない方向に行ってしまうこともある。いわゆる衆愚政治によって得られた結論は、冷静な状況ではあり得ないものになるケースがほとんどである。
「集合知は正しい」という命題が成立するためには、意見に多様性があり、意見を述べる人が独立していることが絶対条件となる。集合知が成立するには、他人には左右されない、さまざまな見解を持った人が十分な数だけ集まらなければならない。同じような思想を持った人物の集団だったり、人の意見に左右される人ばかりでは、意見は簡単に一方向に流れてしまう。
さらに言えば、意見を言う人が同じ情報源から物事を判断していた場合、その正確性はかなり怪しくなる。意見を述べる個人が独立し、個別の情報源を用いて初めて集合知が成立する。スペースシャトルの事故原因を市場が正確に認識できたのは、当時のアメリカ株式市場が前記の要件を十分に満たしていたからである。
日本で「粉飾倒産」する企業が増えている理由...今後はさらなる「倒産増加」が予想される 2024.10.30
【総選挙】自民党と立憲民主党の「経済/外交/政治改革」の政策比較で分かった「異例」の現象 2024.10.18