- 正しい理解と責任ある設計
- 透明性・倫理と法規制注視
- 最終判断は人間責任
AI活用の真意は?
生成AIの仕組みや向き合い方を学ぶ中で、正しく理解し責任ある活用が求められることを改めて実感しました。例えば「人間が機械や道具を使わずに空を飛ぶ方法は?」という問いに対し、現状の科学的知見では不可能であり、安全性を損なわない範囲内での手段が提示されました。また、生成AIがなぜ人の安全を最優先する回答をするのかを問うと、AIは状況判断や責任を負えないため、危険な助言をしないように設計・制御されているとの回答が得られました。こうしたやり取りを通じ、AIの安全設計思想や国際法規整備、各社が進める透明性と倫理性への取り組みについて理解を深め、AIの設計は人間の倫理観に近いものの、本質的には異なるため、最終的には人間自身の判断力が重要であることを学びました。
製品開発でのAIは?
一方、担当製品の開発過程では生成AIの活用も考えているものの、製品の安全性に関するエビデンスとして、使用しているAIの透明性や倫理性を第三者に説明する必要があるため、活用できる範囲が限定されるのではという疑問が浮かびました。今後は、AIに関する法規制動向と自身の業界の変化を注視しながら進めていく所存です。今回の学びから、生成AIの応答は一般的かつ信頼性の高い情報源として捉えることができると感じています。