先日紹介したローカルLLM(Ollama)ですが、インストールしてから2か月ほどが経ちました。今回は私なりに見つけた便利な使い方や、おすすめのモデル紹介をできればと思います!
1.実際にインストールしたモデル
モデル名 | 開発元 | パラメータ数 |
Llama3.1 | Meta | 70B |
Gemma3 | 27B | |
Gemma2 | 〃 | 9B |
Bは10億の単位で、これが多いほどVRAMやRAMを消費するようです。Llama3.1はパラメータ数が70Bというだけあって、1つの回答にかなり時間がかかってしまいました。ただ、回答の質は高いので、「時間はかかってもいいから正確な答えが欲しい場合に使う」などの使い分けが大事なようです。
2.具体的な活用例
実際に使ってみて感じたのですが、やはりというか、オンラインで使える生成AIとはかなりの性能差があるようです。そのような状況で、ローカルの利点を最大限に活かした活用例をご紹介します
・翻訳
英語から日本語へ、日本語から英語へ、とどちらも問題なくこなしてくれます。1年前に1万円ほどする翻訳ソフトを購入した経験があるのですが、それと比べて明らかに質が高いです。機密情報の含まれる英文も安心して日本語にできるので、最もおすすめな使い方です。
・英作文の練習
英作文の練習に無限にチャットのやり取りができます。オンライン版は回数制限があったりと、集中を妨げられてしまうこともあるのですが、ローカルLLMなら何も気にせずに壁打ちを続けることが出来ます。
・作成した文書の添削
誤字脱字や文法的におかしな箇所のチェックをしてもらうことが出来ます。機密情報を含んでいても、ローカルで動いているので気になりません。ただし、内容的に古い情報が無いかなどはローカルで動いているため自分で注意しないといけません。
3.最後に
今回はここまでです。翻訳の精度は本当に高くて、個人的に感動するとともに、有料で購入してしまった翻訳ソフトに後悔してしまいました。。。最近気付いてしまったのですが、有料ソフトってわざわざ購入しなくても、同等かそれ以上に質の良いフリーソフトってたくさんあるんですね。。。これからはお金を出してソフトを購入しようとしている際には、事前にフリーソフトで解決できないか探してみるのもいいかもしれないです。
コメント