人間の認知の問題として、 「嘘か真かを識別する負担」 とかがあって、これはリテラシーと言われているもの(実態としては、その分野に於ける基礎知識・素養・知見の蓄積に基づいて違和感を排除する能力)で乗り越えてきたけど、素養・知見に嘘が混じってると誰でも盛大に間違える。
2023-06-29 08:16:39嘘に惑わされないためにあらかじめ身につけておく素養・知見の量が膨大になると嘘を嘘と見抜くのに労力が青天井になるから、「素養も知見もなくても正解だけ知りたい」とか楽をしようとし始めるw
2023-06-29 08:17:42でもそうすると、「プロセスの理解」をすっ飛ばして「誰か(権威)が言った絶対の正解だけに飛びつく」ってなるから、プロセスの明快な間違いに気づく機会が得られず、【騙されっぱなしのチョロい人】になる。
2023-06-29 08:18:25「ちょっと勉強する、ちょっと素養と知見を増やす、ちょっと基礎知識を踏まえるとかして、プロセスを自分の頭で理解するとかすれば分かりそうなもの」にも簡単に引っかかる。 恐らく今、生成AIとかがこのフェーズに引っかかってると見た。
2023-06-29 08:19:25「あの人(あの記事)が言ったから正しい」「みんな(参照記事の多く)が同じことを言ってるから正しい」みたいなバイアスって人間も簡単に引っかかるけど、AIもそれと同様で、それを乗り越えられていないんだとすると、これまで以上に「AIは嘘をつくので、回答を鵜呑みにできない」という警戒心強まる
2023-06-29 08:20:45AIに「出力した回答が事実から離れていた場合、何らかのペナルティを与える」「回答がより正確・的確であるという評価が得られた場合、報酬が与えられる」とか設定したら、人間がそうであるように正確さに執着するようになるんだろうかこれ。
2023-06-29 08:22:40人間ならそのペナルティと報酬のわかりやすいところは「金銭・資産の増減」とかだけど、AIだと「同種のAIが同時並行に処理を行うシステムの中で、自身が使えるリソースが制限を受ける(ペナ)、増強される(報酬)、プログラムそのものを消去/リセットされる(解任)」とか?
2023-06-29 08:24:05