相変わらず長いけど、表題の通り。
2
加藤AZUKI @azukiglg

青くなりました(`・ω・´) blueskyアカ取れました。 Threadsとかにもいます。

twilog.org/azukiglg

加藤AZUKI @azukiglg

人間の認知の問題として、 「嘘か真かを識別する負担」 とかがあって、これはリテラシーと言われているもの(実態としては、その分野に於ける基礎知識・素養・知見の蓄積に基づいて違和感を排除する能力)で乗り越えてきたけど、素養・知見に嘘が混じってると誰でも盛大に間違える。

2023-06-29 08:16:39
加藤AZUKI @azukiglg

嘘に惑わされないためにあらかじめ身につけておく素養・知見の量が膨大になると嘘を嘘と見抜くのに労力が青天井になるから、「素養も知見もなくても正解だけ知りたい」とか楽をしようとし始めるw

2023-06-29 08:17:42
加藤AZUKI @azukiglg

でもそうすると、「プロセスの理解」をすっ飛ばして「誰か(権威)が言った絶対の正解だけに飛びつく」ってなるから、プロセスの明快な間違いに気づく機会が得られず、【騙されっぱなしのチョロい人】になる。

2023-06-29 08:18:25
加藤AZUKI @azukiglg

「ちょっと勉強する、ちょっと素養と知見を増やす、ちょっと基礎知識を踏まえるとかして、プロセスを自分の頭で理解するとかすれば分かりそうなもの」にも簡単に引っかかる。 恐らく今、生成AIとかがこのフェーズに引っかかってると見た。

2023-06-29 08:19:25
加藤AZUKI @azukiglg

「あの人(あの記事)が言ったから正しい」「みんな(参照記事の多く)が同じことを言ってるから正しい」みたいなバイアスって人間も簡単に引っかかるけど、AIもそれと同様で、それを乗り越えられていないんだとすると、これまで以上に「AIは嘘をつくので、回答を鵜呑みにできない」という警戒心強まる

2023-06-29 08:20:45
加藤AZUKI @azukiglg

或いは「AIがそう言ってるんだから真実に決まってるだろ!」と引責しないAIの主張の尻馬に乗って、あとで責任を問われる。

2023-06-29 08:21:24
加藤AZUKI @azukiglg

AIに「出力した回答が事実から離れていた場合、何らかのペナルティを与える」「回答がより正確・的確であるという評価が得られた場合、報酬が与えられる」とか設定したら、人間がそうであるように正確さに執着するようになるんだろうかこれ。

2023-06-29 08:22:40
加藤AZUKI @azukiglg

人間ならそのペナルティと報酬のわかりやすいところは「金銭・資産の増減」とかだけど、AIだと「同種のAIが同時並行に処理を行うシステムの中で、自身が使えるリソースが制限を受ける(ペナ)、増強される(報酬)、プログラムそのものを消去/リセットされる(解任)」とか?

2023-06-29 08:24:05
2
まとめたひと
文里💉x7 @wenly_m

松山市をこよなく愛する独り者。 第2の故郷は三田の山。 min.tのサービスは使う人が増えて欲しいと思っている人

作者のオススメ