このセグメントは、企業の主要なAIアプリであるChatGPTに焦点を当てています。 平均的な ChatGPT ユーザーは、毎日 6 つのプロンプトを投稿してアプリを操作します。 アクティビティ レベルはユーザーによって異なり、上位 10% のユーザーが毎日 22 件のプロンプトを投稿し、上位 1% のユーザーが 68 件のプロンプトを投稿しています。 組織では、ユーザー 10,000 人ごとに、ChatGPT への 1 日あたりのプロンプトが約 660 件になると予想されます。 しかし、本当の問題は、これらのプロンプトの内容にあります:それらは無害なクエリですか、それとも誤って機密データを明らかにしますか?
Netskope の調査によると、ソース コードが最も頻繁に公開される機密データの種類であり、10,000 人の企業ユーザーのうち 22 人が毎月 ChatGPT にソース コードを投稿していることがわかりました。 合計すると、この 22 人のユーザーは、月に平均 158 件のソースコードを含む投稿を担当しています。 この傾向は、ChatGPTのコードのレビューと説明、バグやセキュリティの脆弱性を特定する能力を考えると、まったく予想外ではありません。 これらのサービスは有益ですが、ChatGPTと機密のソースコードを共有すると、潜在的なデータ侵害、偶発的なデータ開示、法的および規制上のリスクなどのリスクが生じます。
ソースコードと比較すると、他の形式の機密データを含む投稿は比較的少ないです。 企業ユーザー10,000人につき、規制対象データ(財務データ、医療情報、個人を特定できる情報を含む)の共有は、通常18件発生しています。 知的財産(ソースコードを除く)はさらにまれで、ユーザー10,000人あたり月に平均4件のインシデントが発生しています。 興味深いことに、パスワードとキーは、共有される機密データの種類の中にも含まれており、通常はソースコードに埋め込まれています。 比較的頻度が低い (毎月 10,000 人のユーザーあたり約 4 件のインシデント) にもかかわらず、このプラクティスは、ソフトウェア エンジニアに対して、シークレットをソース コードにハードコーディングするリスクについて重要な注意喚起として機能します。