x1.5 / x2.0 視聴の前に要約で見る見ないの判断出来るかも?
TECHOEDGE にGoogleのAI「Bard」、人間の代わりにYouTubeを見て内容を回答可能に。料理動画からレシピを要約もという記事が。
Google が開発している AI の Bard がアップデートされて、Youtube 動画を理解するようになってきたそうで。
GoogleはAIチャットボット「Bard」をアップデートし、YouTube動画を理解できる能力の「最初の一歩」を踏み出したと発表しました。
傘下のサービスを連携させるのは Google の得意なものなので、
Bard で Youtube を理解させる(学習させる?)のは想定の範囲でしたが、
もう理解させる段階に入ってきているんですね。
Bardのエクステンション、すなわちGoogleのアプリやサービスと統合する機能は11月時点では英語のみ対応しているため、日本語では利用できません。
まぁ、英語版の機能は当然ですが、エクステンションが色々な言語セットに対応できるようになったら、
多国語で Bard が Youtube 動画を理解するようになって来るって事ですね。
たとえば「オリーブオイルケーキの作り方の動画を探している場合、最初の動画のレシピに必要な卵の数を尋ねる」のも可能になったとのこと。
これは結構凄い事ですね。
動画の中で必要なことを「話している」のを Bard が理解し、質問されたら回答できるっていうのは、
要約がきちんと出来ているってことですからね。
これが進むと、Youtube 動画を見る前にどういった内容を話していて、要点は何であるか。をテキストベースで表示出来るようになったり、
もっと進んだら、動画を要約再編集とかもこなしたりかもですね。
現在の早見で用いられている、x1.5 / x1.75 / x2.0 をしなくても、
そもそも要約で見る見ないが決定できるようになるかもですね。
コメント