后面看的计算机视觉相关论文,模型都太复杂,搭建出来可以,但是机器跑不动,还是用GPU服务器跑吧。
conda activate tf2.3
tf2.3是我服务器上的虚拟环境。
jupyter notebook --generate-config
由于这里我用的GPU服务器是windows系统,所以生成的文件位置如下:
运行命令:python
安装notebook
pip install notebook
生成密码:
from notebook.auth import passwd
passwd()
这里需要连续两次输入密码(密码就是客户端远程连接时输入的密码)
把底下生成的密钥保存好。
修改1.2中的配置文件
直接添加如下内容
c.NotebookApp.ip = '*' # *表示所有IP,这里设置ip为都可访问
c.NotebookApp.password = '上面那长串密钥' #这里就是上面的字符串,这个可以设置也可以不设置
c.NotebookApp.port = 6008 # 这里的端口可以自己定义,也可以每次启动时通过控制台传参设定
c.NotebookApp.open_browser = False# 禁止notebook启动时自动打开浏览器(在linux服务器一般都是ssh命令行访问,没有图形界面的。所以,启动也没啥用)
c.NotebookApp.allow_remote_access = True
c.NotebookApp.allow_root = True
其实配置文件中是由上面几个配置项的,但是不在一块,需要找到并放开注释,这里直接加在文件开头是为了方便。
客户端直接用服务器的ip+端口号即可访问。
这里输入在1.3中设置的密码
可以看到,没有任何问题,这样就可以在本地访问服务器上面的Jupyter Notebook了,可以起飞,跑大模型了。
VGG16将近一亿四千万的参数说跑就跑,再也不担心模型跑一个挂一个了。