軽量なVLMのMobileVLM V2です。
以下はシンプルなプロンプトですが、T4 GPUで約250msとかなり早いです👀
そーいえば、MobileVLMも触りかけて放置してたのですが、Colaboratoryで改めて触りました👀
— 高橋 かずひと@闇のパワポLT職人 (@KzhtTkhs) 2024年8月17日
シンプルなプロンプトですが、T4 GPUで約250msと言うのは流石に早いな🤔 pic.twitter.com/7eW4rBDmmg
今回お試ししたノートブックは以下にコミットしています。
からあげさんの「Large Language Mario」のOpenAI API部分を、
MobileVLM V2に差し替えてマリオのジェノサイドのテストをしています👻
マリオジェノサイダーふたたび👀
— 高橋 かずひと@闇のパワポLT職人 (@KzhtTkhs) 2024年8月16日
ChatGPTからMobileVLM V2にして、Colaboratoryのコンピューティング ユニットが続く限り回し続けている。
とはいえ、周回毎に何か改善要素無いと、クリアは難しいよな。。。
プロンプトの改善をChatGPTにやらせるか。。。🤔? https://t.co/EDc3Qt4fqs pic.twitter.com/8ty9PUs4Oc
からあげさんの「Large Language Mario」の詳細はZennをご覧ください🦔
追記:2024年8月17日 13時30分
LLMarioにMobileVLM V2版をプルリク投げました🦔