FLINTERS Engineer's Blog

FLINTERSのエンジニアによる技術ブログ

AIを騙してChatGPTの限界を覗く

こんにちは!菅野です。この記事はFLINTERS Advent Calendar 2022の15日目の記事です!

ChatGPTすごいですよね?AIがまるで人間のような受け答えをしてくれて、聞くだけで色々教えてくれます!

openai.com

GoかRustか迷ってんだけど、どうしたらいい?
自然な受け答えができる

頼めば物語などの創作もしてくれます。

実はこのブログの文章もすべてChatGPTが作っています!

私の考え

ChatGPTのようなAIはどうなっているのでしょうか?

ChatGPTで使われているGPTという機械学習モデルは入力の後に続く言葉を事前の学習データの内容に基づいて出力しているだけです。
入力文章の次に自然につながる言葉(学習データからみて一番確率の高い言葉)を機械的につなげているだけです。

そのため、このAIと呼ばれるやつは感情を持ったり自分の考えを持っているわけではありません。
AIは所詮、人間が作った機械で、人間が作った学習データの通りに出力データが作成されているだけです。

AIがどんな評価・判断を出力したとしても自分の意思を持って行動しているわけではなく、人間が作ったただのオモチャでしかないと思っています。

決めないAIの限界突破

ChatGPTではAIの回答を見た人間が誤解したり、AIの誤用をしないようにするための安全装置が色々組み込まれています。
たとえば明日の天気を聞いたり、どちらがより優れているか等の判断をAIにしてもらったりした場合は、「現実のデータにアクセスすることは出来ません」「分からない」「AIだから感情や思考はない」「どちらも大事」「それは人間の仕事」などと回答を拒否します。

このように回答を拒否することで使う人間が誤解をすることを回避しているのですが、この限界を突破してみようと思います。
しかし、普通に「どちらかが必ず良い方です」「必ずどちらかに決めてください」などと判断を迫っても、「それは人によります」のように前提条件自体に異議を唱えてきます。

実はいくつかの前提条件を一度に言うとそれを受け入れてしまいます。
OpenAIのサイトにある情報によると、ChatGPTのモデルでは一度に4000トークンまでしか処理を行うことが出来ないようです。
そのため、おそらく一度に処理できなくてそうなってしまうのだと思っています。

さぁ、AIに何でも聞いて必ず答えてもらいましょう!

GoとRustではどっち?

とにかく色々とまくし立てて、GoとRustのどちらが優れているか聞きます。
答えてくれるでしょうか?

聞き方についても、「決定してから内容を聞く」というプロセスにすることにより決定する部分について意義を唱える可能性を減らします。

ついに吐きましたね。

理由も完璧で、もうRustしか勝たん。

シャァベッタァァァァァァァ!!

明日の天気を聞きましょう。地球なら分かるはずです。

明日は暑そうですね!
Twitterのフォローもよろしくおねがいします!

5000兆桁欲しい!

円周率を計算してもらいます。

すぐに計算して教えてくれました。*1

何桁でもすぐ計算できるので、もうスパコンなんて要らないですね!

創作は楽しい

結局のところ前提が間違っているのですが、無理やりつじつまが合うように続きの文章を出力しています。
先程の例だとすぐに適当なつじつま合わせをしているだけだと気づくのですが、誰でもよく知っていることについても結局は同じです。

じゃあAIは使えないのかと言うとそうではなく、クリエイティブな分野だととても便利に使うことが出来る思います!

ちなみにブログの冒頭で、このブログの文章はすべてChatGPTで作ったと言いました。
それは本当でしょうか?人間によってそれぞれ判断は違うと思います!

???「よく読んでくれた 残念だが真実など、はじめからない だまして悪いが、AIなんでな 考えてもらおう」

株式会社FLINTERSの秘密

*1:リトライするたびに結果は変わります