-
Notifications
You must be signed in to change notification settings - Fork 1.2k
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
Merge pull request #216 from eltociear/update_ja-docs
Update Japanese documents
- Loading branch information
Showing
3 changed files
with
254 additions
and
45 deletions.
There are no files selected for viewing
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,85 @@ | ||
# FAQ | ||
|
||
## インストールと環境 | ||
|
||
#### Flash attention 導入の失敗例 | ||
|
||
Flash attention は、トレーニングと推論を加速するオプションです。H100、A100、RTX 3090、T4、RTX 2080 などの Turing、Ampere、Ada、および Hopper アーキテクチャの NVIDIA GPU だけが、flash attention をサポートできます。それをインストールせずに私たちのモデルを使用することができます。 | ||
|
||
#### transformers のバージョンは? | ||
|
||
4.31.0 が望ましいです。 | ||
|
||
#### コードとチェックポイントをダウンロードしましたが、モデルをローカルにロードできません。どうすればよいでしょうか? | ||
|
||
コードを最新のものに更新し、すべてのシャードされたチェックポイントファイルを正しくダウンロードしたかどうか確認してください。 | ||
|
||
#### `qwen.tiktoken` が見つかりません。これは何ですか? | ||
|
||
これはトークナイザーのマージファイルです。ダウンロードする必要があります。[git-lfs](https://git-lfs.com) を使わずにリポジトリを git clone しただけでは、このファイルをダウンロードできないことに注意してください。 | ||
|
||
#### transformers_stream_generator/tiktoken/accelerate が見つかりません。 | ||
|
||
コマンド `pip install -r requirements.txt` を実行してください。このファイルは [https://github.com/QwenLM/Qwen-7B/blob/main/requirements.txt](https://github.com/QwenLM/Qwen-7B/blob/main/requirements.txt) にあります。 | ||
<br><br> | ||
|
||
|
||
|
||
## デモと推論 | ||
|
||
#### デモはありますか?CLI と Web UI のデモはありますか? | ||
|
||
はい、Web デモは `web_demo.py` を、CLI デモは `cli_demo.py` を参照してください。詳しくは README を参照してください。 | ||
|
||
|
||
|
||
#### CPU のみを使うことはできますか? | ||
|
||
はい、`python cli_demo.py --cpu-only` を実行すると、CPU のみでモデルと推論をロードします。 | ||
|
||
#### Qwen はストリーミングに対応していますか? | ||
|
||
`modeling_qwen.py` の `chat_stream` 関数を参照してください。 | ||
|
||
#### chat_stream() を使用すると、結果に文字化けが発生します。 | ||
|
||
これは、トークンがバイトを表し、単一のトークンが無意味な文字列である可能性があるためです。このようなデコード結果を避けるため、トークナイザのデフォルト設定を更新しました。コードを最新版に更新してください。 | ||
|
||
#### インストラクションとは関係ないようですが... | ||
|
||
Qwen-7B ではなく Qwen-7B-Chat を読み込んでいないか確認してください。Qwen-7B はアライメントなしのベースモデルで、SFT/Chat モデルとは挙動が異なります。 | ||
|
||
#### 量子化はサポートされていますか? | ||
|
||
はい、量子化は `bitsandbytes` でサポートされています。私たちは改良版の開発に取り組んでおり、量子化されたモデルのチェックポイントをリリースする予定です。 | ||
|
||
#### 量子化モデル実行時のエラー: `importlib.metadata.PackageNotFoundError: No package metadata was found for bitsandbytes` | ||
|
||
Linux ユーザの場合は,`pip install bitsandbytes` を直接実行することで解決できます。Windows ユーザの場合は、`python -m pip install bitsandbytes --prefer-binary --extra-index-url=https://jllllll.github.io/bitsandbytes-windows-webui` を実行することができます。 | ||
|
||
#### 長いシーケンスの処理に時間がかかる | ||
|
||
この問題は解決しました。コードを最新版に更新することで解決します。 | ||
|
||
#### 長いシーケンスの処理で不満足なパフォーマンス | ||
|
||
NTK が適用されていることを確認してください。`config.json` の `use_dynamc_ntk` と `use_logn_attn` を `true` に設定する必要があります(デフォルトでは `true`)。 | ||
<br><br> | ||
|
||
|
||
|
||
## ファインチューニング | ||
|
||
#### Qwen は SFT、あるいは RLHF に対応できますか? | ||
|
||
今のところ、ファインチューニングや RLHF のコードは提供していません。しかし、[FastChat](**[https://github.com/lm-sys/FastChat](https://github.com/lm-sys/FastChat))、[Firefly]([https://github.com/yangjianxin1/Firefly](https://github.com/yangjianxin1/Firefly))、[**LLaMA Efficient Tuning**]([https://github.com/hiyouga/LLaMA-Efficient-Tuning](https://github.com/hiyouga/LLaMA-Efficient-Tuning))など、いくつかのプロジェクトではファインチューニングをサポートしています。近日中に関連コードを更新する予定です。 | ||
<br><br> | ||
|
||
|
||
|
||
## トークナイザー | ||
|
||
#### bos_id/eos_id/pad_id が見つかりません。 | ||
|
||
私たちのトレーニングでは、セパレータとパディングトークンとして `<|endoftext|>` のみを使用しています。bos_id、eos_id、pad_id は tokenizer.eod_id に設定できます。私たちのトークナイザーについて詳しくは、トークナイザーについてのドキュメントをご覧ください。 | ||
|
Oops, something went wrong.