ttp://english.peopledaily.com.cn/200403/18/eng20040318_137816.shtml

NASAは、のどへの神経信号を解析することにより
まだ話していない思考を読み取ることに近いコンピュータプログラムを開発した
副音声システム(the subvocal system)を使用している人は、フレーズを考えて
ほとんど聞くことができないぐらいにつぶやいているが、
舌と声帯は脳からの音声信号を受信しています

顎と喉仏の各側面にあるセンサーは、
とらえられるべき聞くことができる音声かあるいは
声に出さない音声などを処理している音声器官への脳の信号を受信する

解析しているのは、例えば静かに読んでいたり心の中でつぶやているときなどの
声に出していない音声か聞くことの出来る音声である

実際に唇や顔を動かしていようがしてなかろうが、心の中で読んだり話したりしているとき
神経信号は生じている

このプログラムは、
92%の精度で繰り返し話した6単語と10個の数を認識した

このシステムのキーは、センサー、信号処理、パターン認識であり、
私達がしていることの科学的に重要な部分はそこに存在している



<解説>

この思考を読み取るソフトからわかる大変な重要なことは、

脳内で話している音声も、実際に話している音声も、
その音声信号の電気信号が脳から舌や声帯にいっており、顎や喉仏でその信号を受信できること

である


この装置の原理は、以下のものである

(1)脳内音声信号、実際の音声信号のどちらであっても
それに応じて変化する電気信号がのどあたりに生じており、それを測定する

(2)測定した音声信号の電気信号パターンを
パターン認識により特定の音声信号の電気信号パターンと
照らし合わせることによって特定の音声を話していると判断する


これはつまり、特定の思考をしているときの脳波と照らし合わせることにより
脳波から何を思考しているかを判断する装置
と、原理的には基本的に同じであるということである

違うのは、頭皮上の脳波の電気信号を測定するのではなく
顎や喉仏の電気信号を測定して行っているというだけである

思考盗聴は、このようなパターン認識ではなく
電気信号から直接、音として変換処理して聞こえたりするというものである

パターン認識型の原理では、思考(脳内音声信号)が
音としてわかることはできないので、この装置では正確な思考盗聴はできないとなる




<原文>

NASA develops 'thought-reading' software
NASA has developed a computer program that comes close to reading thoughts not
yet spoken, by analyzing nerve commands to the throat.

NASA has developed a computer program that comes close to reading thoughts not yet spoken,
by analyzing nerve commands to the throat.
It says the breakthrough holds promise for astronauts and the handicapped.
"A person using the subvocal system thinks of phrases and talks to himself so quietly
it cannot be heard, but the tongue and vocal cords do receive speech signals from the brain,"
said developer Chuck Jorgensen, of NASA's Ames Research Center, Moffett Field, California.

Jorgensen's team found that sensors under the chin and one each side of the Adam's
apple pick up the brain's commands to the speech organs, allowing the subauditory,
or "silent speech" to be captured.

The team concluded that the method could be useful on space missions or other difficult
working conditions, such as air traffic control towers and even to make current
voice-recognition software more active.

"What is analyzed is silent, or subauditory, speech, such as when a person silently
reads or talks to himself," Jorgensen said.

"Biological signals arise when reading or speaking to oneself
with or without actual lip or facial movement."

On early trials, the program could recognize with 92 percent accuracy six words
and 10 numbers that the team repeated sub-vocally.

The first words were "stop," "go," "left," "right," "alpha," and "omega."

Then, the inventors gave each letter of the alphabet a set of digital coordinates.

"We took the alphabet and put it into a matrix -- like a calendar," Jorgensen said.

"We numbered the columns and rows and we could identify
each letter with a pair of single-digit numbers.



"So we silently spelled out 'NASA' and then submitted it
to a well-known Web search engine. We electronically numbered the Web pages
that came up as search results. We used the numbers again to choose Web pages to examine.
This proved we could browse the Web without touching a keyboard."

The next trial will command a robot similar to the Rovers currently exploring Mars.

"We can have the model Rover go left or right using silently 'spoken' words.

"A logical spin-off would be that handicapped persons could use this system
for a lot of things," he said, as well as persons wanting to speak by telephone without being overheard.

To reach that goal, the team plans to build a dictionary of
English words recognizable by speech recognition software.

The equipment will need improved amplifiers to strengthen the electrical nerve signals,
which are now run through noise reduction equipment before they can be analyzed.

"The keys to this system are the sensors, the signal processing and the pattern recognition,
and that's where the scientific meat of what we're doing resides." Jorgensen said.

ttp://english.peopledaily.com.cn/200403/18/eng20040318_137816.shtml