こんにちは。
弁護士の浅見隆行です。
2023年に入ってから、生成系AI「ChatGPT」が急速に浸透しています。
質問すれば対話で答えが返ってくる。
その答えにさらに質問すれば別の答えが返ってくる。
非常に便利である反面、答えによっては、もっともらしく取り繕っているだけで間違った内容も目立ちます。
こうした状況を受けて、各大学がChatGPTなどの生成系AIに対する考え方や指針を示し始めました。
今回は、各大学の指針を見ながら、企業活動と生成系AIの距離感や情報セキュリティについて考えてみたいと思います。
ChatGPTなど生成系AIに対する各大学の指針・見解
大学では、研究などに使えると同時に、学生が間違った学びをするリスクもあることから、賛否両論です。
3月27日、名古屋大学の杉山総長は、卒業式でchatGPTを利用して祝辞を述べたそうです。
その際、ChatGPTのデメリットとメリットの両方を指摘しました。
4月に入ってからは、その他の大学もWEBサイトや学生向けポータルサイトにChatGPTなど生成系AIに対する方針を掲載するようになりました。
報道されている主な大学の方針や声明は以下のとおりです。
- 東北大学:「未発表の論文や秘密にすべき情報を入力してしまうと、意図せず漏えいしてしまう可能性がある」
- 東京大学:「学位やレポートについては、学生本人が作成することを前提としているので、生成系AIのみを用いて作成することはできない」
- 京都大学:「AIによる文章作成には誤った情報が含まれるリスクがある」「みずから『文章を書く』ということに伴う重要な検証プロセスが欠けている」「皆さんには、時間をかけてじっくりと自分の文章を練り上げる習慣を、ぜひ身に付けていただきたい」
- 九州大:「使用は単純に禁止しない。新しい技術を活用し、自ら学び、価値を創造する姿勢を育むことが望ましい」
- 上智大学:「レポート、小論文、学位論文等において、使用を認めない。使用が確認された場合は、厳格な対応を行う。教員の許可があれば、その指示の範囲内で使うことは可」
また、東京大学は、リスクを詳細に説明してます。
その一部は以下のようなものです。
大阪大学もリスクについて詳細に説明しています。
東工大は全面禁止としない方針のもとで、学生に対して利用方針を示しています。
大学の指針・見解の内容から企業が学べること
各大学が出した指針や見解の内容を見ると、
- ChatGPTなど生成系AIには間違った内容が含まれているリスクがあるから鵜呑みにしないこと
- 文章やレポートの作成など価値を創造することではchatGPTなど生成系AIを使用しないこと
- ChatGPTなど生成系AIに使われるのではなく道具として使うこと
- ChatGPTなど生成系AIから情報漏えいのリスクがあるから気をつけて使うこと
が、気をつけるべき内容として概ね共通しているように読み取れます。
付け加えるならば、
- ChatGPTなど生成系AIには、第三者の著作権など知的財産権を侵害する内容が含まれているリスクがある
ということも注意すべき点かもしれません。
ChatGPT時代の企業の情報セキュリティ
ChatGPTなど生成系AIに対してどう向き合うか、これは各企業にとって喫緊の課題です。
- ChatGPTなど生成系AIを駆使して売上・利益に繋げようとする会社
- ChatGPTなど生成系AIを研究・商品開発に利用しようとする会社
などは既に現れてきています。
ChatGPTなど生成系AIと情報の保存・管理体制の整備義務
一方で、大学が指摘するようなリスクがあることは否定できません。
取締役、取締役会は、リスクがあることを認識して情報セキュリティ体制の見直しをすることが必要です。
少なくとも、自分たちの会社がchatGPTような生成系AIとどう向き合っていくのか方針を取引先や従業員に向けて出さなければなりません。
これは法律上の義務だと思ってください。
取締役、取締役会は、会社法に基づいて情報の保存・管理に対する体制を整備する義務を負っているからです。要するに、情報セキュリティをしなければならない義務があるのです。
ChatGPT時代の情報セキュリティリスクに応じたアップデート
各大学の見解で指摘されたリスクを企業にあてはめると
- ChatGPTなど生成系AIを従業員が利用して、会社の情報が漏えいする
- ChatGPTなど生成系AIで生成された回答が間違っているのに、それに気がつかないまま取引先に提案して、契約後にトラブルが発生する
- ChatGPTなど生成系AIで生成された回答が間違っているのに、それに気がつかないまま研究、開発を行い事故が発生する
- ChatGPTなど生成系AIで生成された回答を用いて営業をしたら、第三者の著作権を侵害する
などのリスクは想定されます。
これらのリスクに備えて、取締役、取締役会が、現状の情報の保存・管理体制(情報セキュリティ体制)をアップデートする必要があります。
アップデートの主体は取締役、取締役会です。必要に応じて取締役会で決議することです。
システムなど情報セキュリティの部署に「方針を決めておいて」と丸投げすれば済む話しではありません。
アップデートしないまま放置しているうちにリスクが実際に発生してしまったとき、株主や取引先に損害賠償などの責任を負うのは会社であり、取締役です。
リスクに備えた社内体制のアップデートと取締役の責任については、こちらの記事で説明している日本システム技術事件の判決を参考にしてください。
ChatGPT時代を迎えて、今すぐアップデートすべき情報セキュリティの内容
chatGPTなど生成系AIが浸透し始め、各大学でも方針や見解を出し始めている今のうちに、なるべく早く、各企業でも方針や見解を定めることが望まれます。
- ChatGPTなど生成系AIを業務で使用して研究や商品の開発、企画をすることについての会社の方針を決める
- ChatGPTなど生成系AIを業務で使用することについての情報漏えいに備えた会社の方針を決める
- ChatGPTなど生成系AIを業務で使用して良い分野や内容を決める
- ChatGPTなど生成系AIにあるリスクを従業員に理解してもらう
などは、今からできるのではないでしょうか。
具体的に社内ルール案を考えてみましたので参考にしてみてください↓(2023/05/13)
このほか、東大が出したリスクに関する説明や、東工大が出した方針は参考になると思います。
まとめ
大学が学生や教職員向けにChatGPTなど生成系AIの利用に関する指針や見解を出していることを他山の石にしないようにしてください。
特に取締役、取締役会は、大学の見解で指摘されているリスクを踏まえて、ChatGPTなど生成系AI時代に対応した自社の情報セキュリティ体制のアップデート、方針の決定などに取り組んでください。