スキルアップAI ロゴ

近年、大規模言語モデルが高度化するなかで、モデルをより効率的かつ柔軟に利用するためのアプローチとして注目を集めているのが「Mixture of Experts(MoE)」です。MoEとは、複数のモデル(Expert、専門家)を組み合わせ、与えられた入力に応じて最適なモデルを動的に選択するというものです。単体のモデルに比べ、回答の品質を向上させることが可能になります。大規模言語モデルを扱う開発者にとって、MoEはこれからの必須知識といえるでしょう。今回のスキルアップAIキャンプでは、その基本原理をわかりやすく解説します。

プログラム概要

  • ・モデル統合についての説明
  • ・Mixture of Expertsについての説明
  • ・代表的なMoEについての紹介
  • ・進化的アルゴリズムについての説明
  • ・進化的アルゴリズムを導入したLLM/VLMの例

スピーカー

  • 株式会社スキルアップNeXt/小縣 信也

    兵庫県出身。大阪市立大学工学部卒業後、建材メーカー、設備設計事務所に勤務。2010年、OpenFOAM勉強会for beginner(現オープンCAE勉強会@関東)を立ち上げ3年間幹事を務める。建築環境に関する数値シミュレーション、電力量や温湿度などのセンサーデータに関する分析が専門。1級建築士、エネルギー管理士。2013年、国土交通省国土技術政策総合研究所 優秀技術者賞受賞。 日本ディープラーニング協会主催2018E資格試験 優秀賞受賞、2019#1E資格試験優秀賞受賞。最近は、需要予測や異常検知などのモデル開発に取り組んでいる。著書「徹底攻略ディープラーニングE資格エンジニア問題集」(インプレス)。

  • 株式会社スキルアップNeXt/飯岡 雄偉

    学生時代からマルチモダリティな機械学習に取り組み、学部4年次にロボティクス分野で権威のある国際学会IROSに採択。国際コンペ2回優勝、国際会議6件採択の実績を残す一方、塾業界で5年間従事し教育分野にも携わる。

開催概要

日時

2024年4月23日(水)19:30~21:00

開催方法

Zoom

参加費

無料

※競合他社様のご参加は、ご遠慮いただいておりますので、ご了承ください。