[AI] LlamaIndexアプリ製作 その2 仮想環境を使ったアプリ軽量化 PyQt6 / py2app / virtualenv

[M1 Mac, Monterey 12.6.3, Python 3.10.4]

py2appを使ったappファイル作成の際の出力をチェックするとどうやら無関係なライブラリも取り込んでいるようなので、仮想環境を使って軽量化を図りました。

今回はvirtualenvを使いました。venvは標準機能として入っていますが、システムのPythonから離れることは出来ません。Pythonのバージョンを自由に選べるvirtualenvの方が使い勝手は良さそうです。

Pythonの主な仮想環境:pyenv, venv, virtualenv

仮想環境を使って最低限のライブラリのみ取り込むようにした結果、248.3MBを213.8MBまで減らすことが出来ました。それでもまだまだ大きいですね。言語自体を変えないとこれ以上は厳しそうです。

py2appで作成したappファイルについてうまく起動できないケースが散見されますが、appファイルの内部にあるMacOSディレクトリに実行ファイルがありますので、これをダブルクリックするとターミナルが起動し、エラー出力の内容を確認できます。

# Python3.10の仮想環境envを作成
virtualenv -p python3.10 env

# ライブラリをインストール
./env/bin/pip install ライブラリ名

# 仮想環境envの有効化
source env/bin/activate

# 仮想環境envの無効化
deactivate
LlamaIndexプロジェクト内に仮想環境envを作成
appファイル起動トラブル時は中にある実行ファイルを起動してエラー出力を確認する

[AI] LlamaIndexアプリ製作 その1 PyQt6 / py2app

[M1 Mac, Monterey 12.6.3, Python 3.10.4]

LlamaIndexアプリの製作に着手しました。

簡単なアプリなのでそんなに工数は掛からないでしょう。取りあえずガワは作りました。

C++で書こうとするとlibcurlおよびEmbeddingのところがかなりややこしくなるため、今回はPyQt6で作ります。

現時点でサイズは240MBに達しています。自分的には論外な大きさですが、軽量高速化よりAI最新情報へのキャッチアップを優先します。

[AI] LlamaIndexによるGPT-3.5専門ボット化 CSV, PDF対応

[M1 Mac, Monterey 12.6.3, Python 3.10.4]

専門チャットボット生成スクリプトについて取り込むファイルタイプとしてCSVとPDFに対応させました。

SimpleCSVReaderのインスタンス化をし忘れていて少し手間取りました。クラスのインスタンス化は言語によってやり方が微妙に違うので要注意です。C++やJavaのようにnewを使わないので見落としがち。

import os, logging, sys
from pathlib import Path
from llama_index import download_loader,LLMPredictor, GPTSimpleVectorIndex, ServiceContext
from langchain import OpenAI

# APIキーを環境変数から取得
apiKey = os.getenv("CHATGPT_API_KEY")
os.environ["OPENAI_API_KEY"] = apiKey

# ログレベルの設定(DEBUG)
logging.basicConfig(stream=sys.stdout, level=logging.DEBUG, force=True)
logging.getLogger().addHandler(logging.StreamHandler(stream=sys.stdout))

# インデックスの作成および保存
llm_predictor = LLMPredictor(llm=OpenAI(temperature=0, model_name="text-embedding-ada-002"))
service_context = ServiceContext.from_defaults(llm_predictor=llm_predictor)

print("ファイルパスを入力して下さい")
file_path = input()
file_path2 = file_path.replace("'", "") # 拡張子判定用
file_path3 = Path(file_path2) # loader用

if file_path2.endswith('.csv'):
	SimpleCSVReader = download_loader("SimpleCSVReader")
	loader = SimpleCSVReader()
elif file_path2.endswith('.pdf'):
	PDFReader = download_loader("PDFReader")
	loader = PDFReader()
else:
	print('ファイルがcsv,pdfではありません')
	sys.exit()

nodes = loader.load_data(file=file_path3)

index = GPTSimpleVectorIndex.from_documents(nodes, service_context=service_context)
index.save_to_disk('index.json')

# インデックスの読込
llm_predictor = LLMPredictor(llm=OpenAI(temperature=0, model_name="text-davinci-003", max_tokens=3500))
service_context = ServiceContext.from_defaults(llm_predictor=llm_predictor)

index = GPTSimpleVectorIndex.load_from_disk(save_path="index.json", service_context=service_context)

# 質問(Ctrl+cで終了)
while True :
  print("質問を入力して下さい")
  question = input()
  
  print(index.query(question))
  

[AI] LlamaIndexによるGPT-3.5専門ボット化 エディタから実行

[M1 Mac, Monterey 12.6.3, Python 3.10.4]

これまでGoogle Colabで検証していましたが、VSCodeに環境を移しました。

インデックス化するファイルさえあれば、GPT-3.5を手軽に専門ボット化できるようになりました。

ただし、この方法ではプロンプトを箇条書きにするなど分かりやすい構成にすることができず密度の高い質問が出来ないため、検証は一旦ストップすることにしました。

色々検討すればするほど、私の中でgpt-3.5-turboチャットボットの優位性が揺るがなくなっています。OpenAIのEmbeddingsについては開発がかなり遅れているように見受けられました。公開内容を制限している可能性もありますね。

import os, logging, sys
from pathlib import Path
from llama_index import download_loader,LLMPredictor, GPTSimpleVectorIndex, ServiceContext
from langchain import OpenAI

# APIキーを環境変数から取得
apiKey = os.getenv("CHATGPT_API_KEY")
os.environ["OPENAI_API_KEY"] = apiKey

# ログレベルの設定(DEBUG)
logging.basicConfig(stream=sys.stdout, level=logging.DEBUG, force=True)
logging.getLogger().addHandler(logging.StreamHandler(stream=sys.stdout))

# インデックスの作成および保存
SimpleCSVReader = download_loader("SimpleCSVReader")

llm_predictor = LLMPredictor(llm=OpenAI(temperature=0, model_name="text-embedding-ada-002"))
service_context = ServiceContext.from_defaults(llm_predictor=llm_predictor)

csv_path = Path('fine_tuning_data.csv')

loader = SimpleCSVReader()
documents = loader.load_data(file=csv_path)

index = GPTSimpleVectorIndex.from_documents(documents, service_context=service_context)
index.save_to_disk('fine_tuning_data.json')

# インデックスの読込
llm_predictor = LLMPredictor(llm=OpenAI(temperature=0, model_name="text-davinci-003", max_tokens=3500))
service_context = ServiceContext.from_defaults(llm_predictor=llm_predictor)

index = GPTSimpleVectorIndex.load_from_disk(save_path="fine_tuning_data.json", service_context=service_context)

# 質問(Ctrl+cで終了)
while True :
  print("質問を入力して下さい")
  question = input()
  
  print(index.query(question))
  

[AI] LlamaIndexによるGPT-3.5専門ボット化 Google Colab / 最大トークン数設定

[M1 Mac, Monterey 12.6.3]

CSVデータをインデックス化しGPT-3.5を専門ボット化するにあたり、設定を模索しています。

LlamaIndexの仕様が変更されていて、先月3月までに書かれた関連ネット情報が早くも一部使えなくなっています。llm_predictorの扱い方が大分変わりました。

最大トークン数を設定して、前回途中で切れてしまった回答を全て表示することが出来ました。

モデルをgpt-3.5-turboにすると何故か説明だけでコードを書かないという手抜きをされるので、デフォルトのtext-davinci-003にしています。

# パッケージのインストール
!pip install llama-index langchain openai
----------
# APIキー設定
import os
os.environ["OPENAI_API_KEY"] = "APIキー"
----------
# ログレベルの設定
import logging
import sys

logging.basicConfig(stream=sys.stdout, level=logging.INFO, force=True)
logging.getLogger().addHandler(logging.StreamHandler(stream=sys.stdout))
----------
# インデックスの作成および保存
from pathlib import Path
from llama_index import download_loader,LLMPredictor, GPTSimpleVectorIndex, ServiceContext
from langchain import OpenAI

SimpleCSVReader = download_loader("SimpleCSVReader")

llm_predictor = LLMPredictor(llm=OpenAI(temperature=0, model_name="text-embedding-ada-002"))
service_context = ServiceContext.from_defaults(llm_predictor=llm_predictor)

csv_path = Path('./fine_tuning_data.csv')

loader = SimpleCSVReader()
documents = loader.load_data(file=csv_path)

index = GPTSimpleVectorIndex.from_documents(documents, service_context=service_context)
index.save_to_disk('fine_tuning_data.json')
----------
# インデックスの読込
llm_predictor = LLMPredictor(llm=OpenAI(temperature=0, model_name="text-davinci-003", max_tokens=3500))
service_context = ServiceContext.from_defaults(llm_predictor=llm_predictor)

index = GPTSimpleVectorIndex.load_from_disk(save_path="fine_tuning_data.json", service_context=service_context)
----------
print(index.query("カラーコード#rrggbbまたは0xrrggbbをrgb(n,n,n)に変換するコードを教えて下さい"))
The code to convert either #rrggbb or 0xrrggbb to rgb(n,n,n) is as follows:

vector<int> ColorConvert::ConvertToRGB(string color_code){
    vector<int> RGBColor;

    if (color_code.substr(0,1) == "#") {
        string red0 = color_code.substr(1,2);
        int red = stoi(red0, nullptr, 16);
        RGBColor.push_back(red);

        string green0 = color_code.substr(3,2);
        int green = stoi(green0, nullptr, 16);
        RGBColor.push_back(green);

        string blue0 = color_code.substr(5,2);
        int blue = stoi(blue0, nullptr, 16);
        RGBColor.push_back(blue);
    } else if (color_code.substr(0,2) == "0x") {
        string red0 = color_code.substr(2,2);
        int red = stoi(red0, nullptr, 16);
        RGBColor.push_back(red);

        string green0 = color_code.substr(4,2);
        int green = stoi(green0, nullptr, 16);
        RGBColor.push_back(green);

        string blue0 = color_code.substr(6,2);
        int blue = stoi(blue0, nullptr, 16);
        RGBColor.push_back(blue);
    }

    return RGBColor;
}

[AI] LlamaIndexによるGPT-3.5専門ボット化 Prompt Design / Google Colab

[M1 Mac, Monterey 12.6.3]

OpenAI davinciのFine-tuningに使用したCSVをLlamaIndexによりインデックス化してGPT-3.5を専門ボット化しました。

回答が途中で切れてしまいましたが、良好な結果でした。CSVにあるサンプルコードを組み合わせてif文を難なく作成するところにはある種の知能を感じさせます。

回答のトークン数を拡大できればかなり使えそうです。

インデックス化したCSV

参考サイト

[AI] OpenAI davinciをFine-tuningする Google Colab

[M1 Mac, Monterey 12.6.3]

OpenAIのLLMであるdavinciを自製datasetでFine-tuningしてみました。

結果は全く効果がないどころか、妙にやさぐれたキャラクターになってWikipediaから臆面もなくコードを引っ張ってくる始末でした。

davinciのプレーンの方が大分ましですが、gpt-3.5-turboに比べるとかなり劣ります。

やはりgpt-3.5-turboをFine-tuningしないとダメですね。自製データセットの内容も良くないのでしょう。ただ、今のところdavinciのようなbase modelしかFine-tuning出来ないようです。

GitHub CopilotのモデルであるCodexもgpt-3.5-turbo等に引き継がれて非推奨になっていますし、OpenAIの有力なモデルでいじれるものがありません。

Fine-tuningが出来ないとなると、あとはPrompt Designで何とかするしかないですね。まあ、こちらは効果は薄めな反面、コストが比較的掛からないという利点があります。

つい先日、LlamaIndexでPDFを読み込ませて試してみましたが、なかなかしっかりした回答を返してきました。こちらの路線でしばらく遊んでみたいと思います。

上段がFine-tuning、下段がプレーン

自製データセットCSV
gpt-3.5-turboが断然優れている

参考サイト

[AI] RWKVをNVIDIA A100で動かす Google Colab

[M1 Mac, Monterey 12.6.3]

巷で話題のRNN(Recurrent Neural Network)であるRWKVをGoogle Colabで使ってみました。

学習モデルはRWKV-4-Pile-14B-Instruct-test4-20230327-ctx1024.pthです。パラメータ数は14Billion(140億)です。読み込みに3分ほど掛かりました。

結論ですが、プログラミング補助ツールとしてはChatGPT API(gpt-3.5-turbo)に遠く及ばないです。ルール通りプロンプトの先頭には+iを付けています。

行間が読めないといいますか、質問文の読解力が不足しているように感じました。英語で聞いても回答の質は変わらずです。応答速度についてはサクサクで全く問題ありません。

やはりGPU1枚で高機能なチャットボットを動かすには特化した学習モデルでないと厳しいということでしょうか。

ただ不完全とは言え、それなりの内容を返してくるのは評価できます。今後の進展に期待といったところです。

実用的であればハイスペックPCを導入しようと考えていましたが、その必要はなさそうです。

コスト :
Google Colab Pro+ ¥5767/月
・A100を高確率で引きたかったのでProより上にしました(もう一つのプレミアムGPUはNVIDIA V100)
Google One(100GB) ¥250/月
・初月無料. 学習モデル28.3GBの保管に必要.

参考サイト