SNL2018

昨年に引き続き、第2回のSymbolic-Neural Learning Workshopを開催します。

投稿締め切りが5月末に迫っております。非常に強力な招待講演者が揃っております。日本において、これだけ一流の講演が高密度に揃うのは奇跡的といえます。最新の研究成果をぶつけるには良い機会だと思います。予稿を出しませんので、他の会議との2重投稿にはなりません。

---------------------------------------------
Second International Workshop on Symbolic-Neural Learning (SNL-2018)
開催案内・ポスター発表募集

2018年7月5日(木)〜6日(金)に名古屋国際会議場にてSecond International Workshop on Symbolic-Neural Learningを開催いたします.深層ニューラルモデルと記号的構造情報の融合というホットな研究分野に焦点を当てたワークショップです.

前回と異なり,口頭発表は全て招待講演となります:
Hang Li (Toutiao)
David McAllester (Toyota Technological Institute at Chicago)
Tetsuya Ogata (Waseda University & AIST)
Paul Smolensky (Microsoft Research AI & Johns Hopkins University)
Naonori Ueda (NTT & RIKEN)
Yuki Arase (Osaka University)
Asako Kanezaki (AIRC/AIST)
Hayato Kobayashi (Yahoo! Japan & RIKEN)
Karen Livescu (Toyota Technological Institute at Chicago)
Michael Maire (Toyota Technological Institute at Chicago)
Makoto Miwa (Toyota Technological Institute)
Daichi Mochihashi (The Institute of Statistical Mathematics)
Naoaki Okazaki (Tokyo Institute of Technology)
Greg Shakhnarovich (Toyota Technological Institute at Chicago)
Hiroya Takamura (AIRC/AIST)
Kazuyoshi Yoshii (Kyoto University & RIKEN)

2日目(7月6日)午後にポスターセッションを開催します.
ポスター発表の希望者は,2018年5月31日(金)までに,
タイトル,概要(英文300語まで),発表者名・所属の情報を英語で

http://goo.gl/gEKSyN

に登録して下さい.
なお,スペースの関係で発表をお断りする場合がありますので予めご了承下さい.

Uber 自動走行車事故

Uberの自動走行車が事故を起こしたときの映像が公開された。

http://pic.twitter.com/2dVP72TziQ
(出典:Temple Police)

映像だけで見ると、暗闇から歩行者が突然浮き上がるが、下記の記事のように、事故車はレーザーレーダー(屋根の上にある円筒形の装置)を搭載しているので、歩行者はセンシングできてなければいけない。搭載しているのはVelodyneのLidarのようだが、少なくとも120mのセンシング距離があるので、暗闇でも歩行者は検知できていたはず。急な飛び出しでもなく、天候も悪くないので、センサー系の故障かソフトウェアの不具合がなければ問題なく歩行者を認識して停車できる状況だ。もしかすると、「自転車を押している歩行者」の映像やセンシングデータが外界認識の学習データに含まれていなかったのかもしれない。

https://www.bloomberg.co.jp/news/articles/2018-03-23/P611EP6TTDS001
(出典: Bloomberg)

地元警察によると、カメラで歩行者が見えても減速も回避もしていない。人間よりも早い反応ができるのが自動制御の利点のはずだが、Uberの自動走行車はそのレベルには達していないようだ。

なお、言語処理のブログになぜこんなことを取り上げるかは、数年後には分かってもらえると思う。GPUのときのように。

NLP2019@Nagoya

言語処理学会年次大会2018@岡山の本会議が昨日で無事終了。今日は大学の卒業式のため名古屋に戻ってきています。

今年はプログラム副委員長という見習いでしたが、来年の年次大会ではプログラム委員長を務めさせていただきます。みなさまのご支援・ご協力をよろしくお願いいたします。

NAACL/HLT 2018 Chairs Blogなんていうのもあるので、同じようなことをやってみようかと思案中。実務的に可能かどうか。今年の準備の過程でプログラム委員長にCcを含めて届いたメールが6300通以上あるので、目を通すだけでもかなり時間をとられています。しかも、中には重要・至急の案件もあるので、見落としは許されません。

今言語処理業界は非常に盛り上がっていますので、この勢いを落とさないようにしたいと思います。

Academic Reputation Survey

世界の大学ランキング作成のための調査依頼が届いた。なぜ私のところに来たのかはわからないが。

弊社では、次回のTimes Higher Education World University Rankingsのために、エルゼビア社と協力してAcademic Reputation Surveyを実施しており、皆様にこの調査へのご協力をお願いしています。

Academic Reputation Surveyにご参加いただき、貴重なご意見をお聞かせいただきますようお願い申し上げます。皆様のご回答は、学術界で高い評判をお持ちの方々の回答と一緒に集計され、世界の高等教育に関する全体像を把握するために使用されると共に、THE World University Rankings、THE World Reputation Rankings、THE World Reputation Rankingsにも活用されることになります。

分散表現ベクトルの説明法

卒業研究や修士研究の発表会で、分散表現ベクトル(埋め込みベクトル)を使った研究を発表するとき、分野外の先生方からいただく難問のひとつが、「そのベクトルにはどういう値が入っていて、どんな意味をもつのか」という質問。

「ベクトルを乱数で初期化して、近い単語を近づける更新を繰り返して自然に出来るベクトルです」と説明しても、なかなか理解してもらえない。ベクトルに良く分からない値が羅列されていて、それを使いますではイカン、まじめにやれ、という話になる(そんなにダイレクトに言う先生はいませんが)。ベクトルの中の数値の持つ意味を解析してキチンと理解しないで、適当に使うとは何事か、研究になっていない、と受け取られてしまうわけです。実際に単語ベクトルの値をじっと見つめても何もわからないので、元来、説明できるものではないのですが、ここは大学なので、使えれば良いという説明は通らないので、なんとか直感的にでも理解していただく必要がある。

とは言え、ベクトルの中身を説明することはできないので、うちの研究室では説明に工夫重ねて、やっと次のような説明で分野外の先生方の理解を得られるようになった。

分散表現ベクトル(埋め込みベクトル)と説明するのではなく、「単語をN次元の超空間中に配置します、このとき、Wikipediaの全部の文章など大量の文書データを参考に、似ている文脈に出てくる単語が同士の距離を近づけ、同じ文脈に出てこない単語同士の距離が遠ざけるような目的関数を設定し、それに従って文書中のすべての単語を超空間に配置したときの各単語の座標を取り出したものが分散表現ベクトル」です、ということで理解してもらえるようになった。

分散表現ベクトルの説明に困っているこの業界の方は、この説明を試してみてください。

ICML 2018

ICML の投稿数が2500件を超えたとのこと。これまでの最高記録。なんか凄いことになっています。ICML2014の投稿数が約1250件でしたので、4年で倍増しています。果たして査読者が足りるのか心配になります。