アレクサ、僕はCOVID-19にかかってるのかな?

9月20日付のnauture電子版にこんな記事が載っていました。
Alexa, do I have COVID-19?

要旨をgoogle翻訳したもの:
”研究者たちは、人々の声を使ってコロナウイルス感染からうつ病まですべてを診断する方法を模索しています。 彼らは人工知能を使用して、状態が脳、神経系、および声の解剖学的構造の繊細なダンスを妨げていることを認識しています。 使用する単語でさえ、兆候である可能性があります。たとえば、語彙の減少は神経変性疾患を示している可能性があります。 研究者は、このテクノロジーは臨床医の診断兵器の一部にすぎず、プライバシーに関する深刻な懸念があることを強調していますが、このようなライトタッチツールの利点は明らかです。 「これは侵襲的ではなく、薬物でもありません。何も変更していません」と音声分析会社VocalisのTalWenderow氏は言います。 「あなたがする必要があるのは話すことだけです。”

機械訳なので一部変ですが、
つまり、人工知能(AI)が発達してきたので、
いろいろな病気の人の声を大量に分析することで、
声で病気がわかるのじゃないかというわけです。

イスラエルとアメリカにオフィスを構えるVocalisという企業は、
新型コロナ感染症検査で陽性だった人に
専用のアプリをダウンロードしてもらい、
電話に向かって話しかけてもらい声を収集する試みを
行ったそうです。

そんなんで診断ができるのか?
今のところすぐには難しいでしょうが、同企業は以前に
慢性閉塞性肺疾患の患者さんで、
再燃が検出できるスマートフォンアプリを
すでに構築している実績があるのだそうです。

この企業に限らず、他にもこの10年間に、
AIと機械学習システムを使用して、
認知症、うつ病、自閉症スペクトラム生涯、心臓病などで、
さまざまな状態の潜在的な音声バイオマーカーが
特定されてきているそうで、現在世界中の企業が
それらを商品化しはじめているのだそうです。

たとえば、パーキンソン病などは10個の特徴をもとに
99%の精度で病気の人の音声サンプルを
識別することができるようになっているそうです。

また、アルツハイマー病の人は、
短い単語、少ない語彙、断片的な文章を使用する傾向があり、
繰り返しが多かったり、「それ」とか「これ」などの代名詞を
用いる比率が多いのだそうです。

あるいは、注意欠陥多動性障害や
その他の神経発達障害のある子どもたちがもつ
明確な発声パターンなどが分かってきているそうです。
ただ、そうした特徴があるからと言って、
人生の早い段階でラベリングをする危険を
指摘する声もある様です。

その他、うつ病やPTSDについても、
音声の特徴がかなりわかってきている様です。

まあ、実用化にはもう少し時間がかかるかもしれませんが、
いずれはスマートフォンやPCなどに向かって
「Hey!Siri!俺の今日の調子はどう思う?」とか、
「Alexa、僕はCOVID-19にかかってるのかな?」とか、
「OK、Google!なんとなく身体がだるいのだけど・・・」
なんて話しかけるだけで、体調を診断してくれる日が
くるかもしれません。