修士論文の要旨


「画像内容の記述に基づいた階層的キーワードの生成と利用に関する研究」

昨今の驚異的な情報処理環境の向上により、高速度・大容量の情報の送受信お よび処理が可能になりつつある。 このような現状を背景として、画像データベースに関する研究が活発に行われ ている。 実際、VOD (Video On Demand)などは実用的なサービスのためのシステムも開 発されており、一部地域では商用サービスも行われ始めている。

しかし、現在の画像データベースでは、内容に関する情報として、たとえば VODの場合、あらすじ, 題名, 出演者などの簡単なキーワードという、非常に 大雑把で限定的なものしか用意されていないのが普通である。 これらの情報は画像の内容に深く踏み込んだものではなく、シーン単位での検 索を行う必要があるような本格的な番組の選別を行うためには不十分であり、 近い将来要求されるようになると思われる水準を質的に満たすことができない。 また、付与されている情報にしても、大半は人手に頼っているのが現状であり、 増え続ける需要に量的に応えることも困難である。
このため、本論文ではマルチメディア(画像)データベースの効率的な検索およ び、データベース生成の(半)自動化を実現するための基礎的研究として、おも に検索キーに注目した議論を行う。

まず前半では、人間による画像の描写(=内容の記述)の解析を通じて、画像デー タベースの検索の際に重要な役割を果たす検索キーの、画像を扱うのに適切な 構造と特徴を検討する。
ここでは、どのような画像も、理想的には描写の集合によって記述し尽くされ ると仮定する。 また、描写は明らかに階層性をもつので、前述の仮定と合わせて、画像は描写 の集合の木構造と理想的には等価であると考えられ、このような構造を「描写 木」と呼ぶこととする。
しかし、実際に人間が行う描写は、描写木のうちのごく一部であり、人間によ る描写は描写木の一部を取り出したものであるとするモデルを考える。 また、画像データベースが検索キーとして保持する必要がある描写も、それに 対応した描写木のごく一部で十分である。 そこで、本論文では人間による描写を心理実験を通じて調べ、検索キーが備え もつべき条件を得るために、人間が描写を行う対象の特徴を洗い出すとともに、 前述の人間による描写のモデルの正当性を示した。
一連の実験の結果、人間による描写には個人差による多様性もあるが、それ以 上に強い共通性が見られることが分かり、画像に付与すべき検索キーの数もそ れほど多くなくてもよいことや、描写の概念階層はさほど深い必要がないこと などが分かり、将来キーの付与の自動化を考える際の手掛かりを得た。 また、人間が描写する対象は一概に画像中の位置や大きさなどで簡単に決まる 訳ではないことが分かり、画像のみからの検索キーの抽出の自動化の困難さと、 それを実現するために必要な研究課題が明らかになった。

次に後半では、前半で得られた知見をもとに、効率的な検索を実現するために 導入する、画像内容の記述に基づいた描写木の構造をとる検索キー「描写木キー」 を用いた画像データベースシステムを提案する。
描写木キーを利用して、問い合わせ文の語彙的・概念的多様性を解消した検索 システムを実現するために、描写木を、骨格となる階層構造を保つ「名詞木」 と、名詞木の各ノードの名詞に対応する動詞を記述する「動詞リスト」に分け て扱うこととする。
検索システムは「問い合わせ文解析部」, 「概念正規化処理部」, 「検索処理 部」の三部構成とし、「問い合わせ文解析部」は前処理として問い合わせの自 然言語文の格解析などを行い、その結果を受けて「概念正規化処理部」では概 念辞書などを利用して一般的な語彙的・概念的多様性を吸収する。 最後の「検索処理部」は本システムに特徴的な処理部であり、描写木を用いて、 前段で正規化された概念と描写木キーとの照合を行う。 名詞木中の概念的にis-kind-of関係にある名詞間では動詞リストを共有し、 is-part-of関係にある名詞間では共有を許さないという規則に則った照合を行 うことにより、誤った検索を防ぎつつも、より柔軟な検索を可能にしている。

最後に、動画像を扱う際の描写木キーの利用法および(半)自動生成に関する大 枠を簡単に示し、将来の拡張への指針を示した。

以上で述べたように、本論文では画像データベースに適した検索キーの構造や 備えもつべき内容を検討し、その結果得られた知見をもとにして、実際のシス テムにおける利用法や、検索キーそのものの生成法などを提案することにより、 データ表現を含めた今後の画像データベースシステムの一つのあり方を示した。


Abstract of my Master's Thesis (in Japanese) / ide@nii.ac.jp