报错截图及现象如下:
1、现象
问题回答到一半突然中断
2、出错截图
从出错截图中能够发现两个问题,1、问题能够回答但是突然中断,说明ollama服务能够运行,服务没有问题,但是不明原因导致突然中断。2、每次服务连接的端口不同。
考虑是服务在调用端口的过程中被防火墙中断,退出360防火墙,卸载360防火墙,问题依旧。这个问题很不稳定,有时候会好用,有时候就会突然中断。
试过了几乎所有的手段,删除之后重新拉v2模型,在命令行中执行v2模型,netstat -an | "报错端口号" 在出错5分钟之内会出现端口被占用的情况,但是5分钟之后这种占用被自动解除,这个问题很奇怪占用测试端口的另外一个端口不是报错提示中的两个端口号的任何一个,开放win11所有端口,在win11的防火墙中加入ollama的白名单,开放所有win11防火墙的出入站规则。全部失效。最终结论猜测应该是chatbox和cmd终端的API与deepseek-coder-v2大模型在兼容性上存在问题。
最后换成vscode集成deepseek-coder-v2,测试了一段时间之后,没有出现上面的问题。
还没有测试pycharm,估计在pycharm中也应该是没有问题的。