#llama3 #検証 ローカルで動かない #gpu 20GB以上のメモリが必要かも | 無線LANオタクのつぶやき:spectrum-tech

無線LANオタクのつぶやき:spectrum-tech

無線LAN関係の状況などをコメントしてゆきます。たまに、無線全般に書いてゆきます。見える化、脆弱性、セキュリティなど

 

1.はじめに

 先日、metaから発表されたllama3ですが、ローカル環境で検証してみました。結論、gpuのメモリが20GB以上必要と思われます。APIで提供される模様なので、ローカル環境が厳しい方は待った方がよりかも。

GitHub - meta-llama/llama3: The official Meta Llama 3 GitHub site

2.検証環境

・os:ubuntu22.04

・gpu:rtx3080 メモリ10GB

・cpu:i9 少し前、32GBメモリ

3.検証内容

(1)モデル

 ・llama3に必要なモデルダウンロード、他のllama2などを入れると1日位

 ・8bの最小モデルのみをお勧め、動作確認してから追加で70bなどを

(2)モデル動作試験

 torchrunで動かすも、cuda out of memory

4.他のモデル

・llama2などもテストしたが、同様にメモリ不足

5.結論

・各社が提供するapiを待った方がよい。

6.その他

弊社openai開発キットはこちら

はじめてのchatGPT開発キットの販売 - スペクトラム・テクノロジー株式会社 (spectrum-tech.co.jp)

7.問い合わせ先

当社の強み ・無線LANの専門調査会社として、セキュリティから電波までの無線LANの専門性を強みとしております。 ・無線歴35年、SI歴25年の専門家が対応します。 ・自社所有の測定ツール(Linux,スペアナ、電波診断ツール、セキュリティ診断ツール、トラヒック診断ツール)により迅速に対応します。 スペクトラム・テクノロジー株式会社 https://spectrum-tech.co.jp 電話:04-2990-8881 email:sales1@spectrum-tech.co.jp 担当:村上