OpenAIが、健康に関する会話に特化した「ChatGPT Health」を発表しました。このサンドボックス化された環境は、Apple Healthなどのウェルネスアプリや医療記録との安全な接続を可能にし、「隔離され、暗号化されたヘルスデータ制御」を提供すると強調されています。しかし、Web3セキュリティ専門誌の編集部としては、この発表を中央集権型プラットフォームにおけるデータ制御の限界という視点から検証する必要があります。
OpenAIが強調するセキュリティ対策は、従来のWeb2.0の範疇における高水準なセキュリティ実装であり、オペレーション上の信頼(Trust)が前提となります。しかし、Web3の基本理念であるデータ主権(Data Sovereignty)と信頼最小化(Trust Minimization)の観点から見ると、ユーザーの機密性の高い健康データが、最終的に大規模な単一企業によって管理される構造自体が、構造的なリスクと見なされます。
真のデータ主権は、ユーザーが秘密鍵を持ち、分散型識別子(DID)や分散型ストレージを通じて、中央機関を介さずにデータへのアクセスをコントロールできる環境を指します。ChatGPT Healthは利便性を提供しますが、ユーザーデータが単一のAIエンティティに集中するリスク(潜在的なデータ利用ポリシーの変更、集約によるハッキングリスク増大)に対して、Web3技術が提供するセルフカストディ型の解決策の必要性が改めて浮き彫りになりました。
Source: OpenAI Launches ChatGPT Health with Isolated, Encrypted Health Data Controls



コメント