★★注目ニュース★★ ChatGPT、アップルの「ヘルスケア」と連携へ?
『HealthTechWatch』では、ここ最近で公開されたニュースから「注目ニュース」をピックアップし、独自の視点で解説していきます。
今回注目したニュースはこちら!
============================================
“ChatGPT、アップルの「ヘルスケア」と連携へ? コード内にアイコン発見”
「ChatGPT」に健康関連の質問をする際、よりパーソナライズされた体験が近いうちに得られるかもしれない。MacRumorsのAaron Perris氏が、iOS版ChatGPTアプリのコード内に隠されたApple「ヘルスケア」のアイコンを見つけたという。このアイコンには、アクティビティや睡眠、食事、呼吸、聴覚に関するラベルが付いていたとされており、「ヘルスケア」アプリが近くChatGPTと連携できるようになる可能性を示唆している。
ChatGPTに「ヘルスケア」の健康・フィットネスデータへのアクセスを許可すれば、健康に関するアドバイスをChatGPTに求めた際に、よりユーザー向けに最適化された回答が得られるようになるかもしれない。ただし、この連携が本当に実現するのか、いつどのような形でプラットフォームに組み込まれるのかは、現時点では確認されていない。
AppleとOpenAIの担当者は、本件に関するコメント依頼にすぐには応じなかった。
セキュリティやプライバシー保護についても、現時点では不透明なままだ。Appleの「ヘルスケア」は現在でも、ユーザーの同意にもとづき、一部の連絡先や医療機関、サードパーティーアプリとデータを共有できる(設定や権限は変更可能だ)。問題は、明確なAI向けの安全策がないまま、ユーザーがこうした高度に機微な情報の提供にどこまで安心感を持てるかだ。
現在ChatGPTは、「apps」と呼ばれる機能を通じて、「Google Drive」「Peloton」「Spotify」「Zillow」「Slack」「Dropbox」など多数のサードパーティープログラムと連携している。
ChatGPTには生活や家計、さらにはウェルネスに関する質問もできるが、そのアドバイスの正確さには疑問が残る。
専門家のあいだでは、健康上の不安に対処する手段として汎用チャットボットに頼ることの危険性を指摘する声が高まっている。こうしたAIモデルは資格を持つ医療従事者ではなく、診療を提供することもできず、常に真実を語るわけでもないからだ。身体的な不調の自己診断や、専門のカウンセリングや治療の代わりとしてチャットボットを使うことは推奨されていない。OpenAIの経営陣でさえ、ChatGPTには誤った情報を生成してしまう、いわゆる「ハルシネーション(もっともらしい嘘をつく現象)」が起こり得るとして、すべてを鵜呑みにせず慎重に判断するよう呼びかけている。
記事原文はこちら(『CNET Japan』 2025年12月04日掲載)
※記事公開から日数が経過した原文へのリンクは、正常に遷移しない場合があります。ご了承ください。
============================================
『HealthTechWatch』の視点!
今回取り上げたのは、iOS版ChatGPTアプリのコード内に隠されたApple「ヘルスケア」のアイコンを見つけたというCNET Japanの記事です。
ChatGPTアプリのコード内にApple「ヘルスケア」のアイコンを発見したことで、Apple「ヘルスケア」アプリとChatGPTの連携の可能性が出てきたということです。
しかし、この記事内では、AppleとOpenAIのそれぞれの担当者に、確認したがすぐには応じなかったということで、まだ明確に連携するという情報ではありませんが、可能性としては、私の希望も込めて高いのではないかと考えております。
以前も私が取り上げたこの注目ニュースの中で、ChatGPTがチャットの内容やフィードバック、GmailやGoogleカレンダーなどと連携し、そのデータに基づき、パーソナライズされた情報を提供する新機能『ChatGPT Pulse』を発表したことお伝えしました。
★★注目ニュース★★ ChatGPT、”やるべきこと”を毎朝提案する新機能『Pulse』
ChatGPTは、対話型AIではありますが、基本利用者側からの質問に対応して回答する形式のコミュニケーションで、利用者からの質問、アクションが会話の起点ですが、利用者が毎日使っているアプリと連携することで、ChatGPTが自ら能動的に利用者の日々の情報を収集し調査して、パーソナライズされた情報を提供する仕組みが可能なのです。
しかし、今回の記事の中でもコメントされていますが、ChatGPTのアドバイスの正確さには疑問が残るという点は、特にヘルスケア、健康関連の情報を扱って生成AIがアドバイスを提供する場合には危険が伴うので、情報の正確性、信頼性、エビデンスなどをクリアする必要があると思います。
ChatGPTを含めて、生成AIの情報は誤った情報を生成してしまう可能性があるという認識を持った上であえて言うと、生成AIと利用者のヘルスケアデータやアプリとの連携から、利用者の知りたい情報に対するパーソナライズなアドバイス提供は、利用者にとっては魅力的に見えると思われます。
というのは、多くの記録系サービスが、記録したとしても、グラフで見える化してくれる程度、簡単な変わり映えしない分析コメント、フィードバックしてくれる程度で、データをしっかりと見た上で個別化した寄り添ったアドバイスまでは期待できないのが現状だからです。
それであれば、極端な言い方ですが、少し間違ったコメントであってもしっかりと寄り添って、声がけしてくれる生成AIのほうが、モチベーションの維持、継続という視点では効果的だと思います。
アドバイスの正確性の課題は残りますが、私の予想としては、生成AIとの連携によって、ヘルスケアのサービスの流れ、役割、仕組みもガラッと大きく変化し、生成AIが利用者とのコミュニケーションツールの中心になり、そのコミュニケーションの基本情報を渡す役割が記録系サービスに変化していくような気がしています。
『HealthTechWatch』編集委員 里見 将史
ヘルスビズウォッチ合同会社の共同代表、主に健康系ウェブサイト、コンテンツなどの企画・制作・運営を担当。(一財)生涯学習開発財団認定コーチ。
- ChatGPT ヘルスケア AI Apple パーソナライズ コミュニケーション
