募集要項 | |
|---|---|
企業名 |
ストックマーク株式会社 |
職種 |
その他(その他) 、 機械学習エンジニア(その他) |
試用期間 |
3ヶ月 |
業務内容 |
【現状の課題】 国産LLM・VLMの自社開発を進める中で、推論・モデル軽量化などの性能最適化がボトルネックとなっています。 既存のフレームワークやGPU構成に依存しない、高速・安定・安価な基盤を構築することが急務です。 研究開発レベルの知見をプロダクトとして成立させる実装力を持つエンジニアを求めています。 【業務内容】 自社プロダクトで活用する大規模言語モデル(LLM)およびマルチモーダルモデル(VLM)の推論・学習の高速化を担当します。 製品開発チームやリサーチチームと協働しながら、実際のプロダクトに最適な形で技術を落とし込んでいただきます。 ▼具体的な業務内容 ・LLM/VLM推論パイプラインの最適化(高速化・省メモリ化・分散処理) ・モデル圧縮、量子化、蒸留などによる軽量化手法の検討と実装 ・推論基盤の設計(モデル並列・パイプライン並列・ロードバランシング) ・推論時間・コストの定量的改善に向けた性能計測と最適化サイクルの運用 【チーム構成】 PaaSユニット 事業責任者(CEO)1名 プロダクトマネージャー 1名 【開発環境】 ▼組織体制 |
応募条件 |
【必須スキル】 ▼いずれか必須 ・PyTorchやTensorFlowなどを用いたLLM/VLMの実装・最適化経験 ・CUDA、NCCL、TensorRT、ONNX Runtimeなどを活用したGPU最適化知識 ・モデル推論のパフォーマンス改善・メモリ削減の実務経験 ・分散学習・推論に関する基礎理解(Data Parallel、Model Parallelなど) ・Python/C++などでの性能チューニング経験 【歓迎スキル】 ・LLMの推論最適化や軽量化に関するOSS貢献または論文発表経験 ・Megatron-LM、DeepSpeed、vLLMなどのフレームワーク実装経験 ・Triton Inference ServerやRayなどの分散推論基盤の知識 ・GPUクラスタ環境での実運用経験(Kubernetes、Slurm、etc.) ・研究チームとの共同開発経験、MLPerfなど性能ベンチマークの知見 【求める人物像】 ・LLMの推論最適化や軽量化に関するOSS貢献または論文発表経験 ・Megatron-LM、DeepSpeed、vLLMなどのフレームワーク実装経験 ・Triton Inference ServerやRayなどの分散推論基盤の知識 ・GPUクラスタ環境での実運用経験(Kubernetes、Slurm、etc.) ・研究チームとの共同開発経験、MLPerfなど性能ベンチマークの知見 ▼その他 ・日本国内で就業可能な方 ・開発に関する技術的な内容含め、日本語で円滑にコミュニケーションが取れる方 ‐ 目安:日常会話レベル |
勤務地 |
東京都港区南青山1丁目12-3LIFORK MINAMI AOYAMA S209 |
給与・報酬 |
想定年収755万円〜1305.8万円 |
就業時間 |
コアタイム:10:00〜14:00 |
休暇・休日 |
・土日祝(完全週休2日制) ・年末年始休暇 ・有給休暇(入社時付与 ※付与日数は入社月による) ・産前産後休暇 ・育児休暇 |
待遇・福利厚生 |
健康保険,厚生年金保険,労災保険,雇用保険 |
こだわり条件 |
学歴不問 即日スタート 経験者優遇 在宅勤務 駅から徒歩5分以内 10時以降出社OK フレックスタイム制 週休2日制 土日祝日休み 交通費支給 社会保険完備 育児支援制度 その他特別制度あり |
