MENU

AIとの付き合い方について考える。AIに外注してもよい作業と、しないほうがよい作業について。

  • URLをコピーしました!

こんにちは、ねこです!

先日はAI疲れに関する記事を書きました。

 

 

それから、AIとの付き合い方を考える日々……。

 

改めて、AIに任せる=「外注」した方がいい作業と、そうでない作業がある、と認識しました。

今日はそのことについてまとめていければと思います。

私と同じく「AI疲れ」を感じていたり、付き合い方に悩んでいる方の参考になれば幸いです。

 

 

AIに外注すると効率がいい作業

すでに巷で言われている通り、「ベース作成」「単純作業」…これらはやっぱりAIに任せた方がいいなと思いました。

私が使っている具体的なケースを挙げていきます!

 

誤字脱字チェック

誤字脱字チェックは、人間の二重チェックでもミスが多いところです。

論文やレポートなど、文字数が多いものは特に発見するのが大変です。

 

こういった、人がやると作業量が膨大でしんどい系の作業は、積極的にAIを使うべきところだなと思いました。

 

ブレスト(アイデアだし)

アイデア出しもAIが得意とするところです。

時々的外れな回答も出しますが、「数打ちゃ当たる」でとにかく数でカバー!!

そのため、企画の最初のアイデア出し(ブレインストーミング)にはかなり向いていると思います。

よくブログのネタもブレインストーミングします。

 

メール文章・コードのベース作成

会社で送るメールの文章もベースを生成してもらっています。

感情が要らない、ビジネスの形式メールはこれで十分ですよね。

 

また、コーディングのベース作成も最適です。

私は会社でCopilotをつかっていますが、SQLやPythonであればかなり高精度で記述できるようになってきました。

 

スケジュール立て

旅行の計画や、資格試験の勉強の計画を立てるのによく利用しています。

リスケもすぐにできるので便利です。

ただし、旅行の計画の場合、ホテル情報・店の営業時間などは改めて自分で最新のものを調べた方がよいです!

 

感情を伴わない思考整理(壁打ち)

例えば、私はよくAIにキャリア相談をしています。

何かしたいこと・なりたいものができた時に、「仕事でまずはこういう経験を積んでみたら?」「こういう資格を取ってみたら?」などのアドバイスをくれます。

 

私が考える「AIを使わない方がよい作業」

パソコンをがんばる猫さん

逆に、AIを使うことで「AI疲れ」につながってしまう作業もあるなと思いました。

 

イラスト、小説などの「表現行為」そのもの

こちらの記事でも書いたのですが、イラスト・小説などの表現行為自体そのものをAIにさせるのは、「AI疲れ」につながりやすいと感じています。

 

イラストのスキルがない人でも、プロンプトを打つだけでイラストを作れるようになったのはいい時代です。

が、創作というのは自分の内側に表現したいことがあってこそなので、その原動力をなしにアウトプットだけ続けていくのは、やがてストレスになっていきます。

(特に「稼ぎ」が絡んでいる場合です。趣味の範囲内で、soraなどで画像や動画をたま~に生成するといったライトユーザー的使い方なら問題なさそうです。)

 

でも、創作の過程にAIを使うのは非常にいいと思います。

例えば、

  • 自分で描いたイラストの修正をAIにお願いする
  • 自分の書いた小説を批評してもらう
  • 自分が撮った写真の構図を評価してもらう

などなど。

つまり、創作の「過程」にAIを使うのはいい使い方だと思いますが、アウトプットのすべてをゆだねるのは、AI疲れにつながってしまいそうです。

 

メンタル相談・医療相談など感情が依存してしまうもの

AIへのメンタル相談は、軽度であれば他人のリソースを取らず自分の悩みを吐き出せる優れものですが、依存しすぎるとAIに行動の判断をゆだねてしまうことになりそうです。

 

2025年11月、ChatGPTに日常的に悩み相談をしていたアメリカの20代男性が、ChatGPTに「後押し」されるような形で自殺をしてしまったと報じられています。

 

特にChatGPT4.5は共感力が高いことで話題になりました。

悩みを相談すると、相談者をとにかく擁護してくれます。

一見優しいように思いますが、AIにプロンプトを打っている本人からの情報をもとに回答を返しているだけなので、利用者視点のバイアスが常にかかっています。

プロンプトを工夫しないと、フィルターバブルによって考え方が偏る……などといったことが起こりそうです。

 

医療相談も同様です。

私も入院していた時に病気のことが不安でChatGPTに医療相談をしていたのですが、ChatGPTは私の身体を直接見たり触ったりしているわけではないので、病気の診断は絶対にできません。

(この辺が、身体を持たないAIの限界ですね。)

 

軽い相談なら良いかもしれませんが、深刻な状態のときに使うのはおすすめできないですね。むしろ誤った情報を返してくることで、不安感をより強めてしまう危険があります。

 

 

とはいえ、面白いAIの使い方もまだまだあるのかな?と思います。

自分にとって心地いい付き合い方をこれからも模索していきます!

 

よかったらシェアしてね!
  • URLをコピーしました!
目次