【スタッフ座談会】生成AIの広がりによって起きる「退行」とは?

生成AIの普及によって、私たちの「調べる力」や「判断力」はどう変わるのか。スタッフ座談会を通じて、知識の広がりの減少、情報の信憑性低下、AIリテラシーの重要性といった生成AI時代の懸念点について率直に語り合います。

※こちらはコンビーズのスタッフが月に1度必ずおこなっているイベント「井戸端会議」での様子を描いたものです。
個人情報などがわからないよう、話している内容の主旨は変えずに編集をしております。

  参加者:中川さん(コンサルチーム)、宮田さん(システムチーム)、宇都宮凜奈(マーケチーム)、川上サトシ(編者・マーケチーム)
中川

まずは、川上さんからお願いしたいと思います。
よろしくお願いします。

川上サトシ

はい。えっと、昨日ふと思ったことなんですけど、今ってもう、AIで調べ物をする時代になったじゃないですか。

宇都宮凜奈

ああ、たしかに。

川上サトシ

Google検索よりも、普通に生成AIに聞いた方が早い、みたいな感覚になってきていると思うんです。実際、私自身も、Googleで検索するよりAIに聞くことが増えてきました。

それで、ふと思い出したんですけど、昔、紙の辞書じゃなくて電子辞書を使うと、周りの情報が目に入らなくなって、知識の幅が狭くなるよ、って学校の先生に言われたことがあって。

宮田

うん、ありますよね。

川上サトシ

その後、時代が進んで、ネット検索、Google検索の時代になりましたよね。調べたいことを検索すると、周辺情報や関連情報も一緒に出てきて、Wikipediaを辿ったり、興味のあることを次々に追っていったりして、結果的に知識の幅が広がっていたな、と思うんです。

でも、生成AIでピンポイントに答えが返ってくるようになると、知識の広がりって、逆に少なくなるんじゃないか、って。

中川

うん。

川上サトシ

それって、ある意味、生成AI時代に対する「退行」なのかな、とも思ったんですね。

それで、生成AIで調べ物をする時代になって、今まで世の中で回っていたもの、例えばGoogle広告とか、SEOとか。そういうものも、ある程度は退行されると思うんですけど、他にも何か思い当たることがあれば、ぜひ聞いてみたいな、と思いました。

中川

ありがとうございます。宮田さん、いかがでしょうか?

宮田

そうですね。生成AIって、学習データを「正解」として学習するので、人間の世界で多くの人が間違っていることがあると、その間違った情報をAIも学習してしまうんですね。

中川

うん。

宮田

昔ながらの調べ物だと、いろんなサイトで間違ったことが書いてあっても、自分が唯一信頼しているサイトには正しいことが書いてあって、結局それが正解だった、という経験があったりします。

でもAIの場合、多数派の間違った情報を、「正解はこれです」と断言して出してしまうことがある。

中川

うん、うん。

宮田

だから「多くの人が言っていること=正しい」という考え方に、より引っ張られやすくなる。その点は、気をつけないといけないな、と感じます。

川上サトシ

ああ。

中川

確かに、すごく“合ってる感じ”で文章を出力してきますよね。

宮田

基本的に「知りません」「分かりません」とは言わないように設計されているので。

川上サトシ

なるほど。

中川

それって、あえてそうなっているんですか?
分からないって言わない理由ってあるんですかね。

宮田

外形的な性能スコアを上げようとすると、答えを返し続けた方が評価が高くなるんです。だから、間違っていても断言してしまう、という構造があるみたいですね。

川上サトシ

なるほど。

宮田

あと、諸説分かれている内容だと、その両方を学習するので、聞くたびに違うことを言う、ということも起きやすいです。

中川

うーん。本当は「こういう説がありますが、確定ではありません」くらいにしてほしいですよね。

宮田

そうですね。どうしても「答えはこれです」と断言するので。

中川

だから、間違った情報が広まりやすくなる。
その意味では、信憑性の部分が退行される、というご意見ですね。

宮田

はい。AIの間違った情報を、人が信じ込みやすくなる、ということです。

中川

私も同じ意見です。

これまでは、いろんなサイトを見比べて、「これは怪しいな」「このサイトは信頼できるかな」って判断できていましたけど、AIを使うと、その判断材料が見えづらくなる。

結果として、わざわざ調べ直さなくなってしまう、というのは感じますね。宇都宮さんはいかがですか?

宇都宮凜奈

私もほとんど同じです。

身近な話なんですけど、母も最近ChatGPTをよく使っているらしくて。でも、「AIの情報が必ず正しいわけではない」という前提を知らない人も結構いるな、と思って。

例えば病気について調べて、AIの答えをそのまま信じて行動してしまったり、「AIはこう言ってました」と人同士のトラブルになったり、そういうことが起きるんじゃないかなって。

実際、私も体調が悪いときに「どこの病院に行けばいいですか?」って聞いたら、全然違う専門を提示されて。「これはおかしいな」と思って調べ直したら、全然違ったんです。

年齢層が上の人ほど、病気みたいな重大な分野だと、影響が大きいなと感じます。

中川

うん、ありがとうございます。
本当に、まだ大きく表面化していないだけですよね。

宇都宮凜奈

はい。AIが必ず正しいわけじゃない、ってことを、もう少し広めてほしいなと思います。テレビとかで。

宮田

そう考えると、一昔前のインターネットと似ている部分もありますよね。「ネットに書いてあったから正しい」っていう。

宇都宮凜奈

確かに。

宮田

でも、ネットリテラシーって、時間をかけて人間が学んできたものなんですよね。それが、短期間で相手がAIに置き換わって、通用しなくなった。

川上サトシ

AIリテラシーに変わる、ってことですね。

宮田

そうです。

川上サトシ

ネットリテラシーの根源は、結局ネットの情報ですよね。その真偽が曖昧なまま、それをAIがまとめて出してくる。

「自分で調べる」と言っても、AIの情報を起点に調べることになるから、問題がどんどん重なっていく気がします。

宮田

改善されないまま、って感じですよね。

川上サトシ

最近、AIの規制を一気に外す、みたいなニュースも見ました。アダルト系の表現や画像生成も含めて。

それが進むと、逆に、いろんなところから情報を引っ張ってくる「ソースのハブ」としての役割が強くなって、リテラシーの重要性は、むしろ加速するのかなとも思いました。

中川

なるほど。

川上サトシ

結局、リテラシーが高い人は、GoogleでもAIでも正しい情報に辿り着ける。でも、低い人は、どちらを使っても辿り着けない。

その差は、経験や使い方なんでしょうね。
どうやって正しい方向に誘導するかは、今後のAIの大きな課題だと思います。

中川

うん。

川上サトシ

正直、フィッシングメールと同じで、「これ怪しいかも」と思う機会を作ってあげることが大事で、それでもダメな人は一生ダメだと思います。

だから、メディアでリテラシーの話は、もっとストレートにやった方がいい。

中川

そうですよね。

AIは、まだまだ未知な部分も多いですし、この先どうなるかは見ていきたいですね。

コンビーズでも活用していく話は出ていますし、引き続き、注意深く見ていけたらと思います。

ポイントまとめ

・生成AIはピンポイントな答えを返すため、周辺知識や偶然の発見が減り、知識の広がりが狭まる可能性がある

・Google検索時代には、関連情報を辿ることで自然と知識の幅が広がっていた

・生成AIは「多数派の意見」を正解として断言しやすく、誤情報が正しいものとして広まるリスクがある

・AIは基本的に「分からない」と言わず、もっともらしい文章で答える構造になっている

・情報の裏取りや信憑性を自分で判断する機会が減り、調べ直さなくなる危険性がある

・かつての「ネットリテラシー」が、短期間で「AIリテラシー」へと置き換わりつつある

・「怪しいかもしれない」と疑う視点を持たせる教育やメディアでの啓発が重要

・生成AIの進化と規制緩和が進むほど、人間側のリテラシーの重要性は高まっていく

※今回は編集者が参加した井戸端会議のため、感想は書きません。

この記事の編集者

川上サトシ

コンビーズのマーケティングディレクター。
ヴァイオリニストとして活動していた20代に、マーケティングの重要性を痛感。骨董品のEC管理や食べログの営業を経て、Webコンサル会社のマーケ担当となる。引っ越し企業のサイトをSEO施策により【半年で1万PVから20万PVまで成長させる】、上場アパレル企業の【売上を1年で3倍にする】など多くの実績を残して合同会社ぎあはーと設立。同時に株式会社コンビーズ参画。専門はSEOと広告運用。ルリニコクのヴァイオリニストとしても活動中。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!