【DOM】NotebookLMで音声解説を作ってみました(体験記)
2025.10.02
音声解説「看板は集患の鍵!新しいコラボれショーンのご紹介」を作成しました。!
*10/3夕方から公開します。
AIを活用し始めると、AIは本当に正しいのかという疑問が出てきます。
例えば、以下の2点があります。
①ハルシネーション(Hallucination:幻覚)
生成AIが、事実に基づかない情報や、学習データに存在しない内容を、あたかも真実であるかのように自信満々に生成してしまう現象です。
これは、AIが「知らない」と答えるのではなく、「最もそれらしい言葉のつながり」を確率的に予測して文章を作り出す仕組みに起因しています。
<具体的な間違いの例>
- 架空の事実の捏造: 「存在しない人物の業績」や「歴史上ない出来事」を詳細に語る。
- 誤った引用: 実際には存在しない論文やウェブサイトを引用元として提示する。
- 誤情報の断定: 最新の出来事や専門知識について、古い情報や誤った解釈を基に回答する。
②バイアス(Bias:偏見・偏り)
AIが学習したデータに含まれる偏見や偏りをそのまま反映し、不公平または不適切な判断を下したり、特定の集団に対して不正確な出力をしたりする現象です。
AIは社会の「鏡」のようなものですが、学習データが偏っていると、その鏡が歪んでしまいます。
<具体的な間違いの例>
- 職業と性別の結びつけ: 「医師」や「CEO」といった単語の後に「彼」と結びつける確率が高く、「看護師」や「秘書」の後に「彼女」と結びつける確率が高くなるなど、社会的なステレオタイプを強化する。
- 人種・属性による認識の偏り: 特定の人種や属性の人々に対して、画像認識の精度が極端に低くなったり、ネガティブな言葉と結びつけたりする。
こうした問題を回避するため、ユーザーが提供した資料やソースに限定してAIが機能するものにしたのが、Google『NotebookLM』となります。
1例として、弊社が用意した資料や指示したWEB上のデータを使って、看板業者とのコラボレーション事業の説明を、男女二人がラジオで説明するような音声解説を作成しました。
資料やURLをインプットして音声解説が出来上がるまで、なんと10分以内です。出来栄えをご確認ください。
*後半で『北堀江看板』を「ほくほりえかんばん」と喋るのはご愛敬でしょうか?現状100点ではありません。