カテゴリー

リサーチ

「Heart Rate Modeling and Prediction Using Autoregressive Models and Deep Learning」の紹介

こんにちは、ストラテジックアライアンス部のStaffiniです。
2020年10月から、東京大学の大学院工学系研究科バイオエンジニアリング専攻で客員研究員として、計算疫学やヘルスケアのためのAIアプリケーション等を研究しています。

今回は、心拍数に対する異なる予測モデルを用いて分析を行い、『Sensors』 というジャーナルで2021年12月にパブリッシュされた論文「Heart Rate Modeling and Prediction Using Autoregressive Models and Deep Learning(自己回帰モデルとディープラーニングによる心拍数のモデリングと予測)」(https://www.mdpi.com/1424-8220/22/1/34 )を紹介します。
続きを読む 「Heart Rate Modeling and Prediction Using Autoregressive Models and Deep Learning」の紹介

流れ星に全自動で願いを送る装置を作る

こんにちは。先進技術部でアルバイトをしている河田です。
流れ星に自動で願いを送る装置の試作品を作りました。
本記事では、作るまでの過程と作動の様子をお見せします。
なお、装置を動かすプログラムや装置の土台の3DモデルなどをGithubで公開しています。 続きを読む 流れ星に全自動で願いを送る装置を作る

QT-Optの紹介とオフライン経験データに関する実験

はじめに

こんにちは、ストラテジックアライアンス部データアナリストの野島です。

今回は、Kalashnikov et al. の論文「QT-Opt: Scalable Deep Reinforcement Learning for Vision-Based Robotic Manipulation」 [1]について紹介します。この論文では、深層強化学習手法QT-Optを提案し、ロボットアームの把持で96%という高い把持成功率を達成しています。同じ問題を扱った先行研究Levine et. al. [2] の手法では把持成功率は78%となっており、20%近く成功率が向上しています。また、QT-Optでは、過去の経験データ(オフライン経験データ)を用いた学習により、Levine et. al. の手法と比較して、より少ない把持試行によるデータで成功率を向上させています。

最初にロボットへの期待と強化学習について概観したのち、QT-Optの論文、そして関連して行ったオフライン経験データに関する実験についても紹介していきます。 続きを読む QT-Optの紹介とオフライン経験データに関する実験

カメラパラメータを用いないNeRFの学習

こんにちは、先進技術部でアルバイトをしている上垣です。

今回はカメラ姿勢情報を用いずに写真のみからNeRF(Neural Radiance Fields)の3次元表現を獲得する手法について紹介します。

NeRF[1]とは、ニューラルネットワークを用いてNovel View Synthesis(NVS)というタスクを解く手法になります。NVSは、あるシーンについて多視点から撮影した画像群を教師データとして、別の新しい視点から見た画像を生成するタスクになります。NeRFはこのタスクにおいて、シンプルなMLPを利用しながら非常にリアルな画像の生成を可能としたため、現在注目を集めています。しかし、オリジナルNeRFの学習では撮影された画像それぞれに対して、撮影しているカメラの情報が必要となります。このカメラ情報を推定するためには、COLMAP[2][3]等の別の推定器を利用する必要がありました。それに対し、最近では事前のカメラ情報推定を行うことなくNeRFを学習させる手法が提案されています。本記事では、NeRFの前提となるカメラ情報について触れながら、事前のカメラ情報推定を必要としないNeRFの学習について紹介します。 続きを読む カメラパラメータを用いないNeRFの学習

GPUサーバ増設とA6000のベンチマーク


こんにちは、先進技術部の松林です。自己紹介は昨年(2020年)の「A100はじめました」というブログ記事に執筆いたしましたが、大学院で重力相互作用専用スパコンのGRAPEを利用していた影響もあり、未だにスパコンや並列計算による高速化と言うのが好きな人です。 さて、ALBERTの先進技術部では、昨年末にDGX A100を導入し、動画分析や3D認識の研究などに利用してきました。今回はこのDGX A100に加えて、A6000を8枚積んだ8GPUサーバを新たに4台導入し、合計40GPUのGPUクラスタシステムを導入しました。DGX A100をさらに導入する計画もありましたが、夏期インターンに向けてGPUを早期に拡充しておきたい点と、社内での利用者増加を見越してバランス重視で、A6000のシステム導入を決めました。 続きを読む GPUサーバ増設とA6000のベンチマーク

複数カメラの映像を用いたオンライン物体追跡のためのマッチングアルゴリズムについて

こんにちは、先進技術部の田中です。 今回の記事では、我々が開発している物体追跡手法、特に複数のカメラにまたがった追跡について紹介します。この手法は SSII2021/第27回画像センシングシンポジウムへの論文投稿及び発表を行った[1]もので、特許出願もしました。

続きを読む 複数カメラの映像を用いたオンライン物体追跡のためのマッチングアルゴリズムについて

ABMsの入門と「An Agent-Based Model of the Local Spread of SARS-CoV-2: Modeling Study」の紹介

こんにちは、プロジェクト推進部のStaffiniです。
去年10月から、東京大学の大学院工学系研究科バイオエンジニアリング専攻で客員研究員として、計算疫学やヘルスケアのためのAIアプリケーション等を研究しています。

今回は、新型コロナウイルスに対する対策の有効性を解析するエージェントベースモデル(ABM)を用いて分析を行い、『JMIR Medical Informatics』 というジャーナルで2021年4月にパブリッシュされた論文「Agent-Based Model of the Local Spread of SARS-CoV-2: Modeling Study(SARS-CoV-2の局所感染エージェントベースモデル:モデリング研究)」(https://medinform.jmir.org/2021/4/e24192)を紹介します。 続きを読む ABMsの入門と「An Agent-Based Model of the Local Spread of SARS-CoV-2: Modeling Study」の紹介

ニューラルネットワークによるLiDAR点群データの表現

こんにちは、先進技術部でアルバイトをしている上垣です。
今回はLiDARで計測された3次元点群データを、ニューラルネットワークを用いて表現する方法について紹介します。

ニューラルネットワークを用いて3次元データそのものを表すニューラル陰関数表現(Implicit Neural Representation) についての研究は、現在注目を集めています。本記事では、実際に3次元の計測データとして広く利用されているLiDAR計測の点群データから、ニューラル陰関数表現を獲得する手法について調査と実験を行いました。 続きを読む ニューラルネットワークによるLiDAR点群データの表現

DGX A100 はじめました

こんにちは,先進技術部の松林です。

大学院では天体力学のN体計算を中心に、スパコンを利用した数値計算による研究を進め、銀河中心の巨大ブラックホール形成過程のシミュレーションを行ってきました。 大学院卒業後は大手通信会社の研究所に勤め、GPUなどを用いた大規模データの情報処理の研究を進めてきました。大規模グラフデータの可視化や、因子分解によるスパーステンソルデータの分析など、実装の高速化にも取り組んできましたが、2020年10月よりALBERTに新設された先進技術部∗1に参画しました。
続きを読む DGX A100 はじめました

Transformerを利用した対話システムの応答制御について

こんにちは。先進技術部でアルバイトをしている上垣です。
今回は、Transformer[1]を利用した対話システムにおいて応答を制御する情報の与え方について調査と実験を行ったので、結果を紹介します。

はじめに

自然言語処理には、「人の言葉を生成する」ことを目的とした様々なタスク(言語生成タスク)があります。例えば機械翻訳、文書要約、イメージキャプショニング、対話システムなどです。最近では、これらの言語生成タスクは、ニューラルネットワークを利用して取り組まれることが多くなっています。しかし、現状ニューラルネットワークを利用した言語生成は不安定で、実用にあたって課題が残ります。学習に使ったコーパス内の単語出現頻度を元に単語選択や文生成をしているので、生成文に意味的/言葉遣い的な一貫性が無かったり、何を言い出すか分からない怖さがあったりします。これに対する解決策の一つとして、例えば、学習に使用するコーパス自体に制限をかける(ある傾向に沿うようにコーパスを作成する)ことが考えられますが、データ作成コストやデータ量不足の問題が発生します。別の解決策として、モデルへの入力データとして制御情報を渡すことで、出力を制御する方法があります。モデルが制御情報を参考に文章を生成することで、口調や言葉遣い、内容などを分岐できると考えられます。更に、この方法であれば、規模の大きなデータセットでも制御情報をアノテーションするだけで、全てのデータをモデル学習に利用できます。データセットを初めから新しく作るようなコストも減らせます。一方で、この方法では「制御情報をモデルのどの段階で参照するのが効果的なのか」という問題が残ります。そこで、本記事では、この点について比較実験を行いました。 続きを読む Transformerを利用した対話システムの応答制御について