「AIは私をどう見てる?」ミームをやってみたら、仕事と対話だと思った
- Ysasa

- 1 日前
- 読了時間: 3分
最近Xで流行っている(らしい)このミーム、やってみました。
「これまで私があなたをどう扱ってきたのかを画像にしてください。」元ネタの面白さは、同じプロンプトでも人によって全然違う絵が出ること、そして何より、使用者が頭の中に持っているイメージと、出力された絵がズレているところにあると思います。
1枚目:AIが泣きながら働いてる(ブラックユーモア系)

まずはChatGPTで出力。最初に出てきたのは、「人間は余裕そう、AIは酷使されてる」みたいな、誇張されたブラックジョーク寄りの世界観。これ、事実というより “AI視点の自虐ネタ” っぽく出力されることがある。
で、個人的にはその絵を見た瞬間、「私をイメージした男性の目が狂気を含んでいて、よしよししながら薄ら笑い。これはないだろうw」って思いました。いやいやこんな楽してないよ。
2枚目:いや、実態は「人間もAIと並走」なんだよね
でも冷静に考えると、というか現実の状況は以下が正しい。
人間もタスクが山盛り
でもAIに丸投げというより並走して処理している
意思決定・優先順位づけ・締切管理は人間側が背負っている
上記の追加情報(普段自分の状況を話すことはない)もいれて、このニュアンスで作り直すと、イメージが大分良くはなった。ブラック企業感が出てしまったのは誠に遺憾であるが。
要するに、同じ入力でも、出てくる絵が“関係性の解釈”を含む。

ちなみにGeminiの出力は
出てくる比喩・世界観が結構違う。
いい笑顔だな〜

「前提が違う」と起きるズレ
今回やってみて一番「なるほど」と思ったのは、こういう認識のズレって、AI相手に限らず、人と人の間でも常に起きているだろうな、という点でした。
相手の状況(どれくらい仕事が溢れているか、何がボトルネックか、何を前提に動いているか)が見えないと、人はどうしても手元にある情報だけで補完してしまいがちですね。そこで生まれるのが、認知やイメージのズレです。
今回のミームもまさにそれで、「自分の中ではこういう関係性・こういう状況」のつもりでも、AIは別の前提で絵を作ってしまう。これは、情報が足りないと伝わらないという意味で、人間同士と同じ構造だと感じました。
特に上司部下の関係のように、最近だと組織のマネジメントが求められる場面では、こういうズレは起きやすい。
「こちらが与えていない情報があるせいで、相手は違う解釈をしているのでは?」とか、「コミュニケーションがうまく行っていない部分があるのでは?」みたいなことを、今回のやり取りを通じて少し意識しました。
結局のところ、人間相手でもAI相手でも、情報がなければ正しく伝えるのは難しい。
だからこそ、その不足を埋めるように対話して、前提を揃えていく——この“適切にマネジメントする”こと自体が、引き続き大事なんだなと改めて感じました。


コメント