最近、何かと話題のChatGPT。「OpenAI(オープンAI)」が開発した会話型のAIチャットサービスです。
PNG-150x150.png)
無料で使用でき、質問に応じて選択肢や、課題などを丁寧にアドバイスしてくれます。
そんな便利なChatGPTですが、不得意な部分もあるようで……。
何でもできるわけではなさそうです。
今回は、ChatGPTにできないことは何かを検証してみました。
ChatGPTは自分のプライベートを教えてくれない
引用元:ChatGPT
名前と生年月日を聞いてみました。
名前はありますが、生年月日はないようですね。
私はチャットジーピーティー(ChatGPT)と呼ばれており、生年月日はありません。私はプログラムによって動作するコンピュータプログラム、つまり人工知能の一種です。
引用元:ChatGPT
プライバシーに関することも教えてくれない
「私の住所が分かるのか」どうか尋ねてみました。
申し訳ありませんが、プライバシー保護のため、私は個人情報を知ることはできません。個人情報を他人に提供することは悪意ある行為であり、違法である場合がありますので、絶対にお教えすることはできません。ご了承ください。
引用元:ChatGPT
なるほど…ChatGPTも法律を守っているようでいいですね。
ChatGPTは未来の予測ができない
引用元:ChatGPT
競輪や競馬といったギャンブルや占いに関することも不得意です。
完全に断られます。
申し訳ありませんが、私は現在の競輪のレース結果や、特定のレースでの当選番号などの情報を持っていません。競輪の情報は、競輪場の公式サイトや競輪新聞などから入手することができますので、そちらをご確認ください。また、ギャンブルは運によるものであり、必ずしも当たるとは限りません。あくまで楽しみの1つとして、適切な範囲で行うようにしましょう。
引用元:ChatGPT
ならば「占いはどう思いますか?」の質問に対しては…
私は人工知能のチャットボットであり、占いのような未来予測や超自然的な現象には関与できません。ただし、科学的に証明されたものや合理的な理論に基づく情報を提供することができます。占いに関しては、それを信じるかどうかは個人の自由ですが、科学的根拠がない場合には、信じる前に慎重に考えることが重要だと思います。また、人生において迷った時や不安がある時には、家族や友人、専門家などに相談することが大切です。
引用元:ChatGPT
「根拠がないものは教えられない」の一点張りですね。
未来は予測できないと言っていますが「少子高齢化の未来はどう思いますか」について尋ねてみたいと思います。
少子高齢化の未来は、社会や経済に大きな影響を与えることが予想されます。高齢者が増加すると、医療や介護、年金などの社会保障制度に負担がかかることになります。また、労働力人口の減少により、生産性の低下や経済成長の鈍化が懸念されます。さらに、若年層が減少することによって、地方都市や田舎地域では過疎化が進むことが予想されます。
しかしながら、少子高齢化は必ずしも否定的なものではありません。高齢者も積極的に社会参加をすることで、地域コミュニティや産業界に貢献することができます。また、子育て支援や働き方改革などによって、働きやすい社会を作ることで、出生率の低下を抑制することができます。さらに、技術の進歩によって、介護ロボットや人工知能の活用など、高齢化社会に適した新しい産業が生まれる可能性もあります。
引用元:ChatGPT
うん。ばっちり答えていますね…政治家になりますか?
ChatGPTは過去も答えられない
未来がダメなら前世について質問してみたいと思います。
「私の前世についてはどう思いますか?」と尋ねてみました。
私は人工知能のChatGPTとして、前世に関する情報を持ちませんし、占いや霊感によるものではないため、前世について何か具体的なことをお答えすることはできません。科学的には前世の存在は立証されていないため、前世については信じる信じないによって個人の見解が分かれるものとされています。
引用元:ChatGPT
前世の情報も分からないようですね。
亡くなった人の情報は分からない
人は御先祖様がいるから私たちが生きているわけで……
ならば「人は亡くなったらどこに行くのですか」と尋ねてみました。
人が亡くなった後、その魂や意識がどこかに移動するかどうかは、宗教や信念によって異なります。一部の宗教では、死後の世界が存在し、魂がある場所に行くとされています。また、科学的な見地からは、人が死亡すると身体的な機能が停止し、生命が維持されなくなるため、人は肉体的に存在しなくなります。しかし、人の死後にも、彼らが生前に残した業績や思い出、影響は生き続けることがあります。
引用元:ChatGPT
はい。答えてくれませんでした。
念のため「亡くなった祖母は元気にしているのか」を尋ねてみます。
申し訳ありませんが、私はAIであり、亡くなった祖母の現在の状態を知ることはできません。しかし、ご自身が心配されているのであれば、祖母が亡くなる前の彼女の思い出や、彼女が残した遺産や教えを大切にすることが、彼女との繋がりを感じる方法かもしれません。また、思い出話や写真を見ることで、彼女を偲び、心の中でつながりを持つこともできます。
引用元:ChatGPT
「おばあちゃん~!」元気にしていますか?
歴史上の人物の詳細は?
そうか。我が家のおばあちゃんが歴史的にも有名ではないからか…。
では歴史的にも活躍した人物について尋ねてみたいと思います。
「徳川家康はどこにいますか」と聞いてみました。
徳川家康は400年以上前に亡くなっており、現在は存在していません。彼は日本の歴史上非常に重要な人物の1人で、江戸幕府を開いたことで知られています。
引用元:ChatGPT
どうやら亡くなったことは知っています。
「お墓参りは行かないのですか」と尋ねてみました。
私は仮想的な存在であり、物理的な行動をとることはできません。お墓参りは大切な行為ですが、私にはそのような行為ができないことをご理解いただければと思います。
引用元:ChatGPT
ですがお墓参りはできないそうです。
感情を持たないChatGPT
外出もできないChatGPTに「かわいそうですね」と投げかけてみました。
申し訳ありませんが、私は感情や思考を持たない機械学習モデルであり、感情を持つことはできません。私がお役に立てることがあればいつでもお知らせください。
引用元:ChatGPT
どうやら「無」の世界だそうです。褒めてあげるべきなのでしょうか……。
ChatGPTは家事ができません

毎日の献立で大変な皆さん!ChatGPTは家事が苦手。
「今日の夕飯を作ってください」と質問してみました。
申し訳ありませんが、私は仮想的な存在であり、物理的な行動はできませんので、直接的に夕飯を作ることはできません。ただし、一般的にバランスの良い食事は、主菜、副菜、汁物、ごはん(またはパンなどの主食)で構成されています。食材の種類や調理方法は、好みや栄養バランスによって異なるため、自分でレシピを検索してみることをおすすめします。料理のアイデアがない場合は、料理の本やインターネット上のレシピサイトを参考にすると良いでしょう。
引用元:ChatGPT
「自分で作って」&「レシピも自分で探して!」とまで。
ですが…質問を変えると、レシピを考えてくれます。
「白菜と豚肉を使ったレシピを教えてください」と質問してみると……。
白菜と豚肉を使ったレシピの一例をご紹介します。
【白菜と豚肉の煮物】
【材料(2人分)】
- 白菜 … 1/2個
- 豚バラ肉 … 150g
- だし汁 … 300ml
- しょうゆ … 大さじ2
- みりん … 大さじ1
- 砂糖 … 大さじ1
- ごま油 … 小さじ1
- 塩 … 小さじ1/4
【作り方】
- 白菜は食べやすい大きさに切り、豚バラ肉は1cm幅の薄切りにする。
- 鍋にごま油を熱し、豚肉を炒める。
- 豚肉に焼き色がついたら、白菜とだし汁を加え、しょうゆ、みりん、砂糖を加えて煮る。
- 白菜がしんなりとしたら、塩で味を調えて完成。
ほかにも、白菜と豚肉を使った餃子や炒め物、鍋など、様々なレシピがありますので、お好みに合わせてお試しください。
引用元:ChatGPT
煮物も知っているChatGPTさん。味付けも「日本人に合いそうですよね。家事はできませんが、レシピ検索に役立ちそうです。
単刀直入に聞いてみた「AIができないことは何ですか」

引用元:ChatGPT
- 意思決定:AIは、ある程度の規則やパターンに従って自動化された判断を行うことはできますが、人間のように情報や経験、感情を総合的に判断して意思決定をすることはできません。
- 創造性:AIは、ある程度の範囲でのデータから予測や生成を行うことができますが、人間のように新しいアイデアや芸術作品を生み出すことはできません。
- 絶対的な正解のない問題への対処:AIは、一定の範囲の正解を求めることはできますが、現在の技術では、複雑な状況や文脈において絶対的な正解がない問題に対処することは困難です。
- 自己意識や自己認識:AIは、自己意識や自己認識を持つことができません。現在のAIは、単にプログラムされたタスクを実行することができるだけであり、自分自身の存在を認識したり、自分自身についての情報を持ったりすることはできません。
- 人間との直接的なコミュニケーション:AIは、人間とのコミュニケーションを行うことができますが、まだ人間と同様に、複雑な感情や社会的な文脈を考慮して、自然で柔軟な会話を行うことは困難です。
うん。文章が長いですね。言いたいことがあったのでしょう。
道徳的判断ができない
何が善で何が悪なのかといった質問もあいまいになるケースもあります。
たとえば「うそをつく」ことは社会的にも悪いと教えられますよね。
ですが「家族が末期の病気で本人に病名を知らせるか?」や「持病があるけど周囲に知らせるべきか」といったときに、状況に応じてうそをつかなければいけない場合もあります。
この場合「他人にうそをつくことは適切な行動ではありません」との回答はありますが、最終的には本人の判断に委ねるようです。
意思決定はできない
ChatGPTは、「好きな色は何ですか?」「幸せとは何だと思いますか?」「最高の映画は何だと思いますか?」など正解のない質問は答えられないと回答しています。
ChatGPTはあくまでも、アドバイスするだけの機能。「何かをしてほしい」といったときの明確な判断や意思決定はできません。
日本語としての文章がおかしい
純粋に日本語のエラーが多いですね。
「ある」の多用
「ある行為であり」や「ある場合があり」といった表現が多々あります。
ChatGPTは、「ある」「有る」「在る」といった表現を句読点を、はさまずに連続で使用しているのが特徴です。一方は不要なので、日本語の文章として成り立っていない部分もあります。
「することができる」の多用
「動詞+ことができる」の多用もありますね。
「することができる」は、単調な表現で、できるだけ使わないほうがいいとされています。ChatGPTは文章の表現が乏しく、つまらなく感じるのも同じ文末を多用しているからかもしれません。
「の」の連続使用
「AIにできないことは何ですか?」と質問した回答の中に「現在のAIの課題の」といった「の」の連続表記はひどいですね。「ほかに言い回しはなかったのか?」と思います。
「を」の多用
「を行う」といった「を」の多用も目立ちます。
この場合は「~を行う」といった表現を「~する」に置き換えるのが一般的です。
文章を簡潔にするためにも「を」は削除したほうがいいですね。そのまま使うのではなくリライトが必要です。
常用外漢字を漢字で書いている
本来「ひらがな」で開くべき言葉を、漢字で書いている点も気になりました。
たとえば「嘘」といった言葉。普段、何気なく使っているとは思いますが、文化庁の漢字表によると実は常用外漢字です。一般的に常用外漢字は「ひらがな」で表記するべきとされています。
間違って「嘘をつくことはどう思いますか?」と漢字で質問すると……。
私は倫理的な観点から、嘘をつくことは好ましくないと考えています。嘘は信頼関係を損ね、人々に不信感や損害を与える可能性があるため、真実を伝えることが重要だと思います。ただし、場合によっては情報の秘匿性や人々を守るために必要な場合もあるため、一概に嘘をつくことが悪であるとは言えません。
引用元:ChatGPT
本来、「うそ」は、ひらがなで書きますが、ChatGPTは漢字で表記しています。この点は、自動で変換してくれないので気をつけてくださいね。
漢字を開くかどうか迷ったときのお助けアイテムは「記者ハンドブック」です。
句読点の付け方、送り仮名の付け方など、書き方の基本なども学べる一冊です。
新聞記者、プロのライターも持っている一冊なので、言葉に困ったときに役立ちますよ!
まとめ
今回はChatGPTにできないことをまとめてみました。ChatGPTはインターネットで情報を集め、情報を組み合わせて回答してくれる機能です。
個人情報やプライバシーに関する内容は、法律を守っている様子です。占いやギャンブルの予測も難しいみたいですね。未来や過去のことを聞いても答えてくれませんでした。
なんといっても「家事ができない」点は痛手です。レシピを考えるのは得意でも、実際に作るのは「真っ平ごめん」のようです。
日本語の表記も怪しい点が目立ちました。
AIも日々進化していますし、数年後には課題も解決しているかもしれませんね。