We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
export HF_HOME=./cache/ && litgpt download --repo_id microsoft/Phi-3-mini-4k-instruct
generation_config.json: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 172/172 [00:00<00:00, 1.07MB/s] model-00001-of-00002.safetensors: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 4.97G/4.97G [03:25<00:00, 24.2MB/s] model-00002-of-00002.safetensors: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.67G/2.67G [01:57<00:00, 22.8MB/s] tokenizer.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.84M/1.84M [00:00<00:00, 12.1MB/s] tokenizer.model: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 500k/500k [00:00<00:00, 17.1MB/s] tokenizer_config.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 3.17k/3.17k [00:00<00:00, 2.52MB/s] Converting .safetensor files to PyTorch binaries (.bin) checkpoints/microsoft/Phi-3-mini-4k-instruct/model-00001-of-00002.safetensors --> checkpoints/microsoft/Phi-3-mini-4k-instruct/model-00001-of-00002.bin checkpoints/microsoft/Phi-3-mini-4k-instruct/model-00002-of-00002.safetensors --> checkpoints/microsoft/Phi-3-mini-4k-instruct/model-00002-of-00002.bin Converting checkpoint files to LitGPT format.
config.py 99 from_name conf_dict = next(config for config in configs if name == config["hf_config"]["name"])
StopIteration
litgpt 8 sys.exit(main())
main.py 143 main fn(**kwargs)
download.py 107 download_from_hub convert_hf_checkpoint(checkpoint_dir=directory, dtype=dtype, model_name=model_name)
_contextlib.py 115 decorate_context return func(*args, **kwargs)
The text was updated successfully, but these errors were encountered:
Thanks for reporting. This would be because Phi-3 has not been added yet via #1341
Sorry, something went wrong.
No branches or pull requests
export HF_HOME=./cache/ && litgpt download --repo_id microsoft/Phi-3-mini-4k-instruct
generation_config.json: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 172/172 [00:00<00:00, 1.07MB/s]
model-00001-of-00002.safetensors: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 4.97G/4.97G [03:25<00:00, 24.2MB/s]
model-00002-of-00002.safetensors: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.67G/2.67G [01:57<00:00, 22.8MB/s]
tokenizer.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.84M/1.84M [00:00<00:00, 12.1MB/s]
tokenizer.model: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 500k/500k [00:00<00:00, 17.1MB/s]
tokenizer_config.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 3.17k/3.17k [00:00<00:00, 2.52MB/s]
Converting .safetensor files to PyTorch binaries (.bin)
checkpoints/microsoft/Phi-3-mini-4k-instruct/model-00001-of-00002.safetensors --> checkpoints/microsoft/Phi-3-mini-4k-instruct/model-00001-of-00002.bin
checkpoints/microsoft/Phi-3-mini-4k-instruct/model-00002-of-00002.safetensors --> checkpoints/microsoft/Phi-3-mini-4k-instruct/model-00002-of-00002.bin
Converting checkpoint files to LitGPT format.
config.py 99 from_name
conf_dict = next(config for config in configs if name == config["hf_config"]["name"])
StopIteration
litgpt 8
sys.exit(main())
main.py 143 main
fn(**kwargs)
download.py 107 download_from_hub
convert_hf_checkpoint(checkpoint_dir=directory, dtype=dtype, model_name=model_name)
_contextlib.py 115 decorate_context
return func(*args, **kwargs)
The text was updated successfully, but these errors were encountered: