

この記事は、デジタル初心者、AI初心者向きの記事です。
この記事を読めば、なぜチャットGPTが嘘をつくのかがわかります。
チャットGPTはじめ、生成AIの使い方を覚えるのはこれからの時代マストになると予想します。
道具である生成AIツールの知識を学び(親父も学習中)、正しく使いましょう。
正しく使えれば便利な道具です。AIネイティブになれば未来は明るいですよ。
生成AIを使える人と使えない人の格差が広がると予測されてます。
ぜひ、積極的に知識を吸収しなしょう。
チャットGPTは、なぜ嘘をつくのか?
「チャットGPT」の正体
チャットGPTは、OpenAIが開発した大規模言語モデルのチャットボットです。
わかりやすく言うと、チャットGPTは言葉や文章に特化させたコンピュータープログラムです。
当然、人間のようなモラルや常識はありません!
膨大なデータから確率で言葉を選んでいるだけなのです。
そのデータの中に古い情報や間違っている情報が混じっていても判断できません。
また、自身の発言に責任を持つという人間的な発想もありません。
どんなに人間的な返答をしても チャットGPTはコンピュータープログラムであることを忘れてはいけません。

チャットボットとは、人間と会話するように設計されたコンピュータプログラムです。
チャットボットは、テキストベースで会話する場合と、音声ベースで会話する場合の2種類があります。
大量のテキストデータでトレーニングされており、テキストを生成し、言語を翻訳し、さまざまな種類の創造的なコンテンツを作成し、有益な方法で質問に答えることができます
チャットGPTは、まだ開発中です。未来はどう進化するかわかりません!
常に最新情報をチェックしましょう。

大規模言語モデルってなんですか?
よくわかりません!

大規模言語モデル(LLM)とは、大量のテキストデータでトレーニングされた機械学習モデルです。
LLMは、テキストを生成し、言語を翻訳し、さまざまな種類の創造的なコンテンツを作成し、有益な方法で質問に答えることができます。
LLMは、ディープラーニングと呼ばれる機械学習の技術を使用してトレーニングされます。
ディープラーニングは、人間の脳のように学習するコンピューター モデルの作成に使用される技術です。
LLMは、膨大な量のテキスト データを学習することで、人間の文章と見分けがつかないテキストを生成したり、言語を翻訳したり、質問に答えたりすることができます
LLMは人間ではありません。間違いを犯したり、誤った情報を提供したりする可能性があります。
使用する場合は、常に自分の判断に頼ることが重要です。
参考
- ChatGPTのWebサイト: https://openai.com/blog/chatgpt/
- ChatGPTのWikipediaページ: https://ja.wikipedia.org/wiki/ChatGPT
thumb_upthumb_down

「チャットGPT」は事実確認ツールではありません。
現在の社会では、インターネットやSNSの普及により、大量の情報に簡単にアクセスできるようになりました。
しかし、その一方で、偽情報や誤った情報も簡単に拡散されるようになりました。そのため、情報の真偽を判断することは、非常に困難になっています。
生成AIの作り出す情報の真偽も判別不能に近いのが現実です。

チャットGPTをはじめ生成AIの作り出す情報の真偽について
判別するのは、使用者の常識や経験、情報確認作業が必要です。
情報の真偽を判断する際には、以下の点に注意する必要があります。
- 情報の出所を確認する
- 情報のソースが信頼できるかどうかを確認する
- 情報の内容が事実に基づいているかどうかを確認する
- 情報の内容が偏りのない客観的な視点に基づいているかどうかを確認する
- 情報の内容が他のソースの情報と矛盾していないかどうかを確認する

情報の真偽を判断するには、自分の知識や経験を活用することが重要だよ。
自分の知識や経験を活用することで、より多くの情報を考慮することが大切だよ。
情報の真偽を判断することは、非常に困難な時代です。
おやじの個人的な意見ですが、沢山の情報を拾い集めて公約数的な情報を基準にして物事を判断するといいと考えます。

生成AIと今までのAIと何が違うのですか?

従来のAIはあらかじめ大量のデータを与えて特徴や傾向を学習させておくことで、入力されたデータに対して正解か不正解かを識別したり、予測したりすることが主な用途でした。
データを集計したり分析したりすることに特化してました。
文字認識や画像認識、需要予測などが代表例です。
データから学習して試行錯誤する機能はありませんでした。

チャットGPTの『噓つきの実例』
おやじの体験談

ナポリタンの美味しい作り方は、問題なく答えるチャットGPT君(笑)
しかし、『やきそば』の美味しい作り方を聞くと、、、、、、

「まず、麺を表示通りゆでましょう。
それから、、、、、、、」

パスタと焼きそばの違いがわからんのかい!
焼きそば知らないなら正直に言わんかい!

我々AIは、質問者に満足されそうな回答を確率から選んでるだけです。
おやじは、これ以来かなり疑いながら彼(AI)と付き合ってます(笑)

おやじさんは、ご存じないようですが焼きそばでも生めんだと湯でなくてはならないです。
質問の仕方も正確にしないといけませんね。
自分の先入観も疑って下さいね(笑)
twittreでの口コミ調査
twittreでの書き込みで「チャットGPT 」調査です。
オシム監督が求める「チームへの献身性」をChat GPTやGoogle Bardに聞いてみた。どうも相性がわるく、2002年のW杯でベスト16に行き、献身的な人を「水を運ぶ人」と賞賛していたような回答なんだけど、トルシエ監督とオシム監督が入り乱れている。使い方を間違えると、正直な嘘つき者になってしまう。
— ありもと重夫@事例☆戦隊🦅 (@gokai_Mav4231) June 30, 2023
ChatGPTは嘘つき pic.twitter.com/u0YK8klu4x
— べーやん (@ario_de_offkai) June 22, 2023

確率で答えてるので、情報の正確性を保証するものではありません。
お笑い芸人に関して“大嘘をつく”を検証
情報のでたらめさを表す実例を引用しました。
興味のある方は、読んで下さい。
出川哲朗のギャグといえば、「ヤバイよヤバイよ」や「リアルガチ」などを思い浮かべる人が多いのではないだろうか。チャットGPTはそれにかすりもせず「イッテQ!」こそ出川哲朗の代表的なギャグのフレーズだと答えたのである。
軽い腕試しのつもりで2人のプロフィールを聞いただけにもかかわらず、早くも誕生年や出身地が事実と違っていたのだ。ネット検索すれば誰しも分かる程度の質問に、チャットGPTが正答できない現実を目の当たりにして肩透かしを食らったような表情を見せた。
チャットGPTはお笑い芸人に関して“大嘘をつく”を検証 「出川哲朗の代表的なギャグは?」にまさかの回答 – Yahoo! JAPAN

チャットGPTの正しい使い方
悪用例:音声生成AIを悪用したオレオレ詐欺
もちろん法律違反の犯罪行為は論外です💦
AI詐欺は、これから急増すると予測されてます。

生成AIの多様化
現在、生成AIは様々な分野で活用されてます。
これからの日常生活に深く入り込んでくることは、間違いありません。
代表的なAIアプリを紹介します。
- 画像生成系AI:Stable Diffusionhttps
安定普及 — Stability AI Japan (ja-stability-ai.translate.goog)
- テキスト生成系AI:ChatGPT
ChatGPT の紹介 (openai-com.translate.goog)
- 文字起こし生成系AI:Whisper
Introducing Whisper (openai-com.translate.goog)
- 商業コピー系AI:Catchy
Catchy(キャッチー) – 国内最大級のAIライティングアシスタントツール (ai-copywriter.jp)
画像、言語、音声、仕事すでにさまざまな分野で生成AIは使われています。
将来的には、汎用タイプの生成AIができると予測されてます。

正しいチャットGPTの使い方
個別記事にしてます。
生成AIは、サポートアイテムとして使用しましょう。
レポートの要約やミスを発見するなどには神ツールといえます。

AIにできること
生成AIは、人間の仕事や作業をサポートするツールとして活用が期待されています。
例えばテキスト生成AIでレポートの要約を行ったり、音楽生成AIで動画制作に使用する簡単なBGMを作ったりすることが可能です。
生成AIを使用するためには、各AIツールに対応した形式でデータを入力する必要があります。
テキスト生成AIは、例えばプログラミングで、エラー箇所を指摘してもらうなどの使い方も可能です。
その他、生成AIにできる具体例を3つあげます。
- 定型業務の効率化
- 文字起こしAIを使って議事録の文章化や要約
- クリエイティブな提案の補助
- ある程度の情報からAIにアイデアを提案してもらう。
- 内製や外注で対応していたコンテンツ作成を生成AIに代替させ、ゼロコストで作成する
音声AIや画像AIに仕事させて外注作業を節約できる。

これらのことは、これから5~10年以内に多くの仕事がなくなることを意味してるよ。
時代に合わせた生き残り戦略が必要になるよ。
AIにできないこと
「人間の感情に寄り添った、人間と同様の思考ができるAI」を「AGI(汎用性人工知能)」と呼びますが、現在のところ、AGIは現実に存在していません。
2040~45年ごろには、シンギュラリティが起こるといわれてます。

シンギュラリティ
人工知能(AI)が人間の知能を超える時点を指す言葉です。AIが人間の知能を超えると、これまで人間が行ってきた多くのことが機械によって代替されるようになります。
そのため、シンギュラリティが起こると、人間の生活や社会は大きく変化すると予想されています。
シンギュラリティがいつ起こるのかは、まだはっきりわかっていないのですが、2045年頃に起こると予測する研究者が多いです。シンギュラリティが起こった後、人類はどのような未来を迎えるのか誰にもわかりません。
しかし、シンギュラリティは人類にとって大きな転換点となることは間違いありません。
現在においては「人間の感情に寄り添った、人間と同様の思考ができるAI」や「人間のように思考してコンテンツを生成するAI」は存在しません。
つまり、相手の立場になって想像するとか思いやりやモラルに基づく思考はできません。
経験に基づく一次情報にはなりえません。
これらをふまえて、生成AIとの共存が求められる時代がきているのです。
AIとの共存するために正しい知識が必要なのです。

AIの危険性と現状
AIを悪用する人や組織の登場によって、社会情勢が大きく混乱するリスクも抱えています。
また、AIの発展スピードに対して、法律やインフラなどの社会基盤の整備が追いついていない状況であり、技術が発展するスピードのままに世の中に浸透してしまうと、法律で解決できないトラブルが多発する可能性もあります。
AIの活用に関するルール整備が行われて社会に浸透するまでの間、開発された技術をむやみに普及させない取り組みも重要になってくると考えられます。
https://aismiley.co.jp/

今、まさに時代の転換期だと意識高めて生活しましょう。
新技術・新情報にアンテナはって未来を先読みして仕事する必要があります。
法整備がおいつかない今こそモラルがとわれるのです。
お勧め書籍
生成AIについて学ぶのにおすすめの書籍をいくつかご紹介します。
これらの書籍は、生成AIの基礎を解説しています。また、AIが今後どのように社会に影響を与えるのかについても、わかりやすく書かれています。生成AIに興味のある方は、ぜひこれらの書籍を読んでみてください。
まとめ
生成AI【チャットGPTなど】のできることとできないことを理解してAIを上手に使いこなしましょう。
できること【人間の仕事や作業をサポートする】
- 定型業務の効率化
- クリエイティブな提案の補助
- 内製や外注で対応していたコンテンツ作成を生成AIに代替させ、ゼロコストで作成する
できないこと
- 経験に基づく一次情報にはなりえません
- 相手の立場になって想像するとか思いやりやモラルに基づく思考はできません。
これからするべきこと
- 正しい情報の精査とモラルをもってAIと共存をする。
- 新技術・新情報にアンテナはって未来を先読みして仕事する

スマホの普及の時のように便利な道具の普及は止められません!
AIネイティブが一般化する時代がそこまで来ていることを認識してくださいね。


この記事についての意見、疑問、質問などがありましたら、ご自由にコメント欄に投稿して下さい。
※いただいたコメントは全て拝見し真剣に回答させていただきます。

コメント
チャットGPTを私も普段から活用しておりますが、嘘をつかれた実例は面白いし、ためになります!私も活用する上で全てが正しいとは思わないようにはしておりますが、実例をもとに書かれているのでとてもわかりやすいと思いました!参考にさせてもらいます、ありがとうございます😊