- AI出力は人間の最終確認が大切
- 不備は使用者が責任を持つ
- 用途別ツール使いこなし習慣
AI出力の信頼度は?
AIが出力した内容をそのまま使用せず、人間の最終チェックが必ず必要であると改めて認識しました。使った回答内容に不備があった場合、その責任は使用者自身にあるという点も重要です。質問の仕方によっては、自分が求めていない回答も返ってくるため、AI利用の度合いが増すほど、チェックの重要性を一層感じるようになりました。特に、取捨選択の判断は人間のスキルに依存するため、今後はその能力も磨いていく必要があると考えています。
ツールはどう使う?
また、用途に応じたツールの使い分けについても工夫しています。たとえば、サプライヤの報告書チェックにはNotebookLM、部品の変更案内の英文要約にもNotebookLM、不具合品の統計や台帳作成にはchat GPT、スポットでの保管品のロケーション管理資料についてもchat GPTを活用しています。現状は、ツールごとにチェックが比較的少ない範囲で使用し、それぞれの特徴に慣れていく段階です。
・社会人になってから学習時間を確保することを怠っていたのですが、今回の参加を通じて、どうかにして時間を確保することできる自信につながりました。今後の継続的な学習につなげていきたいです。
・グループワークが週次であるため、参加者と切磋琢磨して学習できる環境があり、モチベーションを維持して学習をしやすかったと想います。