生成AIの普及によって、私たちの「調べる力」や「判断力」はどう変わるのか。スタッフ座談会を通じて、知識の広がりの減少、情報の信憑性低下、AIリテラシーの重要性といった生成AI時代の懸念点について率直に語り合います。
※こちらはコンビーズのスタッフが月に1度必ずおこなっているイベント「井戸端会議」での様子を描いたものです。
個人情報などがわからないよう、話している内容の主旨は変えずに編集をしております。
| 参加者:中川さん(コンサルチーム)、宮田さん(システムチーム)、宇都宮凜奈(マーケチーム)、川上サトシ(編者・マーケチーム) |
中川まずは、川上さんからお願いしたいと思います。
よろしくお願いします。



はい。えっと、昨日ふと思ったことなんですけど、今ってもう、AIで調べ物をする時代になったじゃないですか。



ああ、たしかに。



Google検索よりも、普通に生成AIに聞いた方が早い、みたいな感覚になってきていると思うんです。実際、私自身も、Googleで検索するよりAIに聞くことが増えてきました。
それで、ふと思い出したんですけど、昔、紙の辞書じゃなくて電子辞書を使うと、周りの情報が目に入らなくなって、知識の幅が狭くなるよ、って学校の先生に言われたことがあって。



うん、ありますよね。



その後、時代が進んで、ネット検索、Google検索の時代になりましたよね。調べたいことを検索すると、周辺情報や関連情報も一緒に出てきて、Wikipediaを辿ったり、興味のあることを次々に追っていったりして、結果的に知識の幅が広がっていたな、と思うんです。
でも、生成AIでピンポイントに答えが返ってくるようになると、知識の広がりって、逆に少なくなるんじゃないか、って。



うん。



それって、ある意味、生成AI時代に対する「退行」なのかな、とも思ったんですね。
それで、生成AIで調べ物をする時代になって、今まで世の中で回っていたもの、例えばGoogle広告とか、SEOとか。そういうものも、ある程度は退行されると思うんですけど、他にも何か思い当たることがあれば、ぜひ聞いてみたいな、と思いました。



ありがとうございます。宮田さん、いかがでしょうか?



そうですね。生成AIって、学習データを「正解」として学習するので、人間の世界で多くの人が間違っていることがあると、その間違った情報をAIも学習してしまうんですね。



うん。



昔ながらの調べ物だと、いろんなサイトで間違ったことが書いてあっても、自分が唯一信頼しているサイトには正しいことが書いてあって、結局それが正解だった、という経験があったりします。
でもAIの場合、多数派の間違った情報を、「正解はこれです」と断言して出してしまうことがある。



うん、うん。



だから「多くの人が言っていること=正しい」という考え方に、より引っ張られやすくなる。その点は、気をつけないといけないな、と感じます。



ああ。



確かに、すごく“合ってる感じ”で文章を出力してきますよね。



基本的に「知りません」「分かりません」とは言わないように設計されているので。



なるほど。



それって、あえてそうなっているんですか?
分からないって言わない理由ってあるんですかね。



外形的な性能スコアを上げようとすると、答えを返し続けた方が評価が高くなるんです。だから、間違っていても断言してしまう、という構造があるみたいですね。



なるほど。



あと、諸説分かれている内容だと、その両方を学習するので、聞くたびに違うことを言う、ということも起きやすいです。



うーん。本当は「こういう説がありますが、確定ではありません」くらいにしてほしいですよね。



そうですね。どうしても「答えはこれです」と断言するので。



だから、間違った情報が広まりやすくなる。
その意味では、信憑性の部分が退行される、というご意見ですね。



はい。AIの間違った情報を、人が信じ込みやすくなる、ということです。



私も同じ意見です。
これまでは、いろんなサイトを見比べて、「これは怪しいな」「このサイトは信頼できるかな」って判断できていましたけど、AIを使うと、その判断材料が見えづらくなる。
結果として、わざわざ調べ直さなくなってしまう、というのは感じますね。宇都宮さんはいかがですか?



私もほとんど同じです。
身近な話なんですけど、母も最近ChatGPTをよく使っているらしくて。でも、「AIの情報が必ず正しいわけではない」という前提を知らない人も結構いるな、と思って。
例えば病気について調べて、AIの答えをそのまま信じて行動してしまったり、「AIはこう言ってました」と人同士のトラブルになったり、そういうことが起きるんじゃないかなって。
実際、私も体調が悪いときに「どこの病院に行けばいいですか?」って聞いたら、全然違う専門を提示されて。「これはおかしいな」と思って調べ直したら、全然違ったんです。
年齢層が上の人ほど、病気みたいな重大な分野だと、影響が大きいなと感じます。



うん、ありがとうございます。
本当に、まだ大きく表面化していないだけですよね。



はい。AIが必ず正しいわけじゃない、ってことを、もう少し広めてほしいなと思います。テレビとかで。



そう考えると、一昔前のインターネットと似ている部分もありますよね。「ネットに書いてあったから正しい」っていう。



確かに。



でも、ネットリテラシーって、時間をかけて人間が学んできたものなんですよね。それが、短期間で相手がAIに置き換わって、通用しなくなった。



AIリテラシーに変わる、ってことですね。



そうです。



ネットリテラシーの根源は、結局ネットの情報ですよね。その真偽が曖昧なまま、それをAIがまとめて出してくる。
「自分で調べる」と言っても、AIの情報を起点に調べることになるから、問題がどんどん重なっていく気がします。



改善されないまま、って感じですよね。



最近、AIの規制を一気に外す、みたいなニュースも見ました。アダルト系の表現や画像生成も含めて。
それが進むと、逆に、いろんなところから情報を引っ張ってくる「ソースのハブ」としての役割が強くなって、リテラシーの重要性は、むしろ加速するのかなとも思いました。



なるほど。



結局、リテラシーが高い人は、GoogleでもAIでも正しい情報に辿り着ける。でも、低い人は、どちらを使っても辿り着けない。
その差は、経験や使い方なんでしょうね。
どうやって正しい方向に誘導するかは、今後のAIの大きな課題だと思います。



うん。



正直、フィッシングメールと同じで、「これ怪しいかも」と思う機会を作ってあげることが大事で、それでもダメな人は一生ダメだと思います。
だから、メディアでリテラシーの話は、もっとストレートにやった方がいい。



そうですよね。
AIは、まだまだ未知な部分も多いですし、この先どうなるかは見ていきたいですね。
コンビーズでも活用していく話は出ていますし、引き続き、注意深く見ていけたらと思います。
ポイントまとめ
| ・生成AIはピンポイントな答えを返すため、周辺知識や偶然の発見が減り、知識の広がりが狭まる可能性がある ・Google検索時代には、関連情報を辿ることで自然と知識の幅が広がっていた ・生成AIは「多数派の意見」を正解として断言しやすく、誤情報が正しいものとして広まるリスクがある ・AIは基本的に「分からない」と言わず、もっともらしい文章で答える構造になっている ・情報の裏取りや信憑性を自分で判断する機会が減り、調べ直さなくなる危険性がある ・かつての「ネットリテラシー」が、短期間で「AIリテラシー」へと置き換わりつつある ・「怪しいかもしれない」と疑う視点を持たせる教育やメディアでの啓発が重要 ・生成AIの進化と規制緩和が進むほど、人間側のリテラシーの重要性は高まっていく |
※今回は編集者が参加した井戸端会議のため、感想は書きません。








