表情や声のデータ分析で統合失調症と双極性障害の鑑別が可能に

psychiatrist mental health
Adobe Stock

視聴覚データを利用した機械学習モデルにより、統合失調症と双極性障害を鑑別できるという研究結果が、米ザッカー・ヒルサイド病院のMichael L. Birnbaum氏らにより報告された。「JMIR Mental Health」1月号に掲載された本研究によると、男性では表情の動き、女性では声の特徴のデータが特に鑑別に役立つという。

近年進歩している視聴覚データの処理技術は、精神疾患の診断や精神症状の判定に役立つ客観的な情報をもたらす可能性がある。音声分析の分野は特に進んでおり、例えば統合失調症では無秩序な話し方、躁病では慌ただしい話し方になることが分かっている。また、統合失調症では平坦で不穏な表情、躁病では陶酔し不安定な表情などが見られるため、ビデオ分析はその微細な動きを捉える信頼性の高い手法として注目されている。

そこで本研究では、表情や声のデータのみを用いた機械学習モデルにより、統合失調症と双極性障害を鑑別できるかどうか検討した。

研究に協力した対象者は89人(平均25.3歳、男性53.9%)で、統合失調症スペクトラム障害41人、双極性障害21人、健常ボランティア27人であった。全ての対象者は最大12カ月間にわたり追跡され、感情的に中立な自由形式の5つの質問に関するインタビューを複数回受けた。例えば視聴したテレビ番組やいつもの夕食などについて尋ね、その録画データから顔の動きと音声の特徴を抽出した。

表情と声のデータを、対象者の統合失調症や双極性障害の診断と紐づけ、男女で分けて機械学習モデルを構築した。また、全ての対象者は簡易精神症状評価尺度(Brief Psychiatric Rating Scale;BPRS)、陰性症状評価尺度(Scale for the Assessment of. Negative Symptoms;SANS)、ハミルトンうつ病評価尺度(Hamilton Depression Rating Scale;HAMD)、ヤング躁病評価尺度(Young Mania Rating Scale;YMRS)による評価も受けており、そのスコアから陽性と判定された精神症状について予測するモデルも構築した。それぞれの機械学習モデルの精度はROC曲線下面積(AUROC)で評価した。

表情と声の特徴を集約した機械学習モデルは、統合失調症と双極性障害の鑑別に有用であった(AUROC 0.73)。表情のデータは男性における鑑別で特に重要であり、統合失調症の男性は双極性障害の男性に比べて、顎を上げる筋肉(同0.74)や口角を上げる筋肉(同0.61)の動きが活性化され、頬を上げる筋肉の動きが低下していた(同0.64)。一方で、声のデータは女性における鑑別で特に重要であり、統合失調症の女性は双極性障害の女性に比べ、1~4kHzの周波数帯域のエネルギー(同0.80)やスペクトル調和度(同0.78)が低下し、スペクトル勾配(同0.77)が上昇していた。大頬骨筋の斜め上への動きなどに代表される口角を上げる動きは、男性(同0.61)、女性(同0.62)のいずれでも統合失調症患者の方が双極性障害患者よりも多く、ともに鑑別に有用であった。

また、表情と声の特徴を集約した機械学習モデルは、精神症状の予測にも有用であった。最も予測能が高かったのはSANSで判定した精神症状のモデルであり、特に感情の平板化と感情鈍麻、意欲・自発性の欠如、社会性・快感の欠如に関する下位尺度では顕著であった。BPRSやHAMDの一部の項目でも予測精度が高かった。一方、YMRSの項目では基準値を上回る精度は得られなかった。

Birnbaum氏らは、「こうした視聴覚データを使用できるようになれば、メンタルヘルスにおける医師の診断や患者指導を改善できるであろう。精神疾患をより早期かつ正確に鑑別することで、患者に即したアプローチを提供できる可能性がある」と述べている。(HealthDay News 2022年2月15日)

https://consumer.healthday.com/audiovisual-data-differentiate-schizophrenia-bipolar-disorders-2656673442.html

Abstract/Full Text

Physician's briefing japanese