こんにちは。西條祐樹です。
最近、GoogleのNotebookLMについて、色々と投稿しましたが、落とし穴に気づきました。
これは、NotebookLMが良くないというお話ではなく、構造的なお話です。

「落とし穴」は、地面に穴を掘って隠す「罠」を指しますが、転じて「人を陥れる策略」や「好ましくない事柄に陥る状況」といった比喩的な意味でも使われます。「うまい話には落とし穴がある」のように、思いがけない欠点や危険性を指しこともあります。

NotebookLMは、使用者が指定した情報源(ソース)を上手に整理して、要約してくれたり、マインドマップを作成してくれたり、音声や動画で解説してくれる優れものです。

ここに落とし穴があるわけです。

それが何かというと、NotebookLMが返す答えは、「使用者が指定した情報源」に基づいているということ。
仮に情報源が誤っていたら?情報が偏っていたら?
返ってくる答えは、誤った答え、偏った情報に基づく答えになるわけです。

ChatGPTに「AIの危険性を具体例を交えて説明してもらえる?それから人間が判断するうえで大切なことも教えてもらえるかな?」と尋ねてみました。

AIの危険性

間違った情報をもっともらしく生成する(誤情報の拡散)、データの偏りによる不公平は判断(バイアス)、個人情報の流出や無断転用(プライバシー問題)、悪用される可能性(攻撃の自動化)、判断理由がわかりにくい(ブラックボックス化)、AIに頼りすぎることで人間の判断力が低下、仕事の変化と格差拡大のリスク、の7項目を回答してくれました。

人間が判断するうえで大切なこと

AIを参考にして最終判断は人が行う、情報の出どころを確認する(ソースの検証)、AIの限界を理解する、判断基準(価値観)を自分で持つ、多角的に考える(AI以外の視点も使う)、責任の所在を曖昧にしない、と回答してくれました。

AIは便利ですが、トラブルがあったときに責任を負うのは、AIを使用した人間です。
だからこそ適切なチェックと制御が必要です。
私がNotebookLMを使用して生成した動画も、一部適当ではない表現があったり、事実よりも大げさに表現されていたりしています。
そもそものソースは、私が作成した資料や会社のホームページの情報ですので、その時点で誤った認識があるかもしれませんし、情報の偏りが全くないとは言い切れません。

ただ、この点を踏まえても自分で責任を持てる範囲と判断したからこそ、公開しています。

弊社の動画、信じるか信じないかは、あなた次第です!
(決してFake動画ではございません)