こんにちは、蒼生です。今日ChatGPTに文章を生成してもらっていて衝撃を受けました。
内容としては、ゲームのあるセリフに対して「解説をして」という内容です。本来解説は作者がやるものなのでしょうが、自分はいつも大量の仕事を抱えていて忙しいので、それを少しでも助けてほしいと思いChatGPTに下書きを作ってもらおうという軽い気持ちで始めました。
それを二回やってみました。
一回目はこの文章です。
解釈が間違っている⇒指摘する⇒文章がおかしくなる⇒仕方ないので結局自分で9割書く。という段階をふんで作った文章です。
ChatGPTは一度「自分でこうだろうと考えた論理」が間違っている(指摘されて間違いに気づく)と、その土台を修正できずにもう一度その間違った論理を土台に文章を生成していくのかもしれないと感じました。そのため最初の段階で論理に間違いがあったら一から作り直せずに、支離滅裂な文章を出力しつづけるのかもしれません。
人間でも、頭の固い人が同じような状態で、間違いを指摘すればするほど支離滅裂な事を言い始めます。土台が間違っている場合、その土台を指摘された通りに作りなおすのは人間でも今のAIでも苦手なようです。(AIの場合最初に色々プロンプトで設定してあげれば改善しそうですが)
一度構築した思考の土台を全部破壊して、土台から新たに構築するのは頭の回転が速くて柔軟な人しかまだできないのかもしれません。
でも二回目に使用した場合は一回ではまりました。
この解釈は、作者の想定していたものと全く違います。しかし作者の伝えたいものと読者の解釈がまったく違うというのはよくあることです。それでも、読者の解釈に一定の論理性があれば、そういう解釈もあるのか、と納得することができます。
このChatGPTの出力には、そのような独自の論理性があり、意図しない内容であるにも関わらず納得させられるものがあります。
これはあまり修正していないので(解説A+I)と書いています。
ChatGPTが一度自分で生成した論理の土台が間違っていなければ、それを土台として、自分で思考を発展させられるのではないかと感じました。
これは作者の意図を理解したくて読む人には面白くないかもしれません。でもその人も独自の解釈をしているはずなので、解釈の幅を広げるためにも、AIはこう考えた的なものを掲載しておくのも面白いな!と思っています。(シナリオ解説本で各キャラの思考の癖は紹介してるので、作者視点を知りたい人はそちらを見ればいいかなと)
先日SNS担当に名言集みたいなのを作ると作品との相性がいいのではないかと提案されたので、AIの手も借りながら少しずつ作っていこうと思っています。
蒼生Kindle書籍一覧 Amazon.co.jp: souseiworks:作品一覧、著者略歴