我无法使用他

#25
by MaxZhuangYan - opened

Windows PowerShell
版权所有(C) Microsoft Corporation。保留所有权利。

安装最新的 PowerShell,了解新功能和改进!https://aka.ms/PSWindows

PS F:\Qwen2.5vl\Qwen2.5-VL> python web_demo_mm.py --checkpoint-path "Qwen/Qwen2.5-VL-7B-Instruct"
Loading checkpoint shards: 100%|█████████████████████████████████████████████████████████| 5/5 [00:11<00:00, 2.25s/it]
Some parameters are on the meta device because they were offloaded to the cpu.
Using a slow image processor as use_fast is unset and a slow processor was saved with this model. use_fast=True will be the default behavior in v4.48, even if the model was saved with a slow processor. This will result in minor differences in outputs. You'll still be able to use a slow processor with use_fast=False.
C:\Users\Max\AppData\Local\Programs\Python\Python312\Lib\site-packages\gradio\components\chatbot.py:285: UserWarning: You have not specified a value for the type parameter. Defaulting to the 'tuples' format for chatbot messages, but this is deprecated and will be removed in a future version of Gradio. Please set type='messages' instead, which uses openai-style dictionaries with 'role' and 'content' keys.
warnings.warn(
信息: 用提供的模式无法找到文件。

  • Running on local URL: http://127.0.0.1:7860
    Traceback (most recent call last):
    File "F:\Qwen2.5vl\Qwen2.5-VL\web_demo_mm.py", line 297, in
    main()
    File "F:\Qwen2.5vl\Qwen2.5-VL\web_demo_mm.py", line 293, in main
    _launch_demo(args, model, processor)
    File "F:\Qwen2.5vl\Qwen2.5-VL\web_demo_mm.py", line 282, in _launch_demo
    demo.queue().launch(
    File "C:\Users\Max\AppData\Local\Programs\Python\Python312\Lib\site-packages\gradio\blocks.py", line 2674, in launch
    raise ValueError(
    ValueError: When localhost is not accessible, a shareable link must be created. Please set share=True or check your proxy settings to allow access to localhost.
    PS F:\Qwen2.5vl\Qwen2.5-VL> python web_demo_mm.py --checkpoint-path "Qwen/Qwen2.5-VL-3B-Instruct"
    config.json: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.37k/1.37k [00:00<?, ?B/s]
    model.safetensors.index.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 65.4k/65.4k [00:00<00:00, 1.05MB/s]
    model-00001-of-00002.safetensors: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 3.98G/3.98G [14:07<00:00, 4.70MB/s]
    model-00002-of-00002.safetensors: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 3.53G/3.53G [11:01<00:00, 5.33MB/s]
    Downloading shards: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2/2 [25:12<00:00, 756.10s/it]
    Loading checkpoint shards: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2/2 [00:04<00:00, 2.23s/it]
    generation_config.json: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 243/243 [00:00<?, ?B/s]
    Some parameters are on the meta device because they were offloaded to the cpu.
    preprocessor_config.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 350/350 [00:00<?, ?B/s]
    Using a slow image processor as use_fast is unset and a slow processor was saved with this model. use_fast=True will be the default behavior in v4.48, even if the model was saved with a slow processor. This will result in minor differences in outputs. You'll still be able to use a slow processor with use_fast=False.
    tokenizer_config.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 7.23k/7.23k [00:00<?, ?B/s]
    vocab.json: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.78M/2.78M [00:02<00:00, 1.29MB/s]
    merges.txt: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.67M/1.67M [00:01<00:00, 1.24MB/s]
    tokenizer.json: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 7.03M/7.03M [00:05<00:00, 1.36MB/s]
    chat_template.json: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.05k/1.05k [00:00<?, ?B/s]
    C:\Users\Max\AppData\Local\Programs\Python\Python312\Lib\site-packages\gradio\components\chatbot.py:285: UserWarning: You have not specified a value for the type parameter. Defaulting to the 'tuples' format for chatbot messages, but this is deprecated and will be removed in a future version of Gradio. Please set type='messages' instead, which uses openai-style dictionaries with 'role' and 'content' keys.
    warnings.warn(
    信息: 用提供的模式无法找到文件。
  • Running on local URL: http://127.0.0.1:7860
    Traceback (most recent call last):
    File "F:\Qwen2.5vl\Qwen2.5-VL\web_demo_mm.py", line 297, in
    main()
    File "F:\Qwen2.5vl\Qwen2.5-VL\web_demo_mm.py", line 293, in main
    _launch_demo(args, model, processor)
    File "F:\Qwen2.5vl\Qwen2.5-VL\web_demo_mm.py", line 282, in _launch_demo
    demo.queue().launch(
    File "C:\Users\Max\AppData\Local\Programs\Python\Python312\Lib\site-packages\gradio\blocks.py", line 2674, in launch
    raise ValueError(
    ValueError: When localhost is not accessible, a shareable link must be created. Please set share=True or check your proxy settings to allow access to localhost.
    PS F:\Qwen2.5vl\Qwen2.5-VL> python web_demo_mm.py --checkpoint-path "Qwen/Qwen2.5-VL-3B-Instruct" --share
    Loading checkpoint shards: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2/2 [00:04<00:00, 2.25s/it]
    Some parameters are on the meta device because they were offloaded to the cpu.
    Using a slow image processor as use_fast is unset and a slow processor was saved with this model. use_fast=True will be the default behavior in v4.48, even if the model was saved with a slow processor. This will result in minor differences in outputs. You'll still be able to use a slow processor with use_fast=False.
    C:\Users\Max\AppData\Local\Programs\Python\Python312\Lib\site-packages\gradio\components\chatbot.py:285: UserWarning: You have not specified a value for the type parameter. Defaulting to the 'tuples' format for chatbot messages, but this is deprecated and will be removed in a future version of Gradio. Please set type='messages' instead, which uses openai-style dictionaries with 'role' and 'content' keys.
    warnings.warn(
    信息: 用提供的模式无法找到文件。
  • Running on local URL: http://127.0.0.1:7860
  • Running on public URL: https://c3b075aa86dcd0ede9.gradio.live

This share link expires in 72 hours. For free permanent hosting and GPU upgrades, run gradio deploy from the terminal in the working directory to deploy to Hugging Face Spaces (https://huggingface.co/spaces)

Sign up or log in to comment