文章来源于网络收集而来,版权归原创者所有,如有侵权请及时联系!
8 风格迁移 Neural Style
1 环境准备
- 本程序需要安装 PyTorch
- 还需要通过
pip install -r requirements.txt
安装其它依赖
2 数据准备
本试验使用的数据来自 coco,你也可以使用其它数据,比如 ImageNet。请尽量保证数据的多样性,不建议使用单一种类的数据集,比如 LSUN 或者人脸识别数据集之类的。
请确保所有的图片保存于 data/coco/
文件夹下,形如:
data
└─ coco
├── COCO_train2014_000000000009.jpg
├── COCO_train2014_000000000025.jpg
├── COCO_train2014_000000000030.jpg
用法
如果想要使用 visdom 可视化,请先运行 python2 -m visdom.server
启动 visdom 服务
基本用法:
Usage: python main.py FUNCTION --key=value,--key2=value2 ..
训练
python main.py train --use-gpu --data-root=data --batch-size=2
生成图片
读者可以 点此 下载预训练的模型 transformer.pth
,
python main.py stylize --model-path='transformer.pth' \
--content-path='amber.jpg'\
--result-path='output2.png'\
--use-gpu=False
完整的选项及默认值
image_size = 256 # 图片大小
batch_size = 8
data_root = 'data/' # 数据集存放路径:data/coco/a.jpg
num_workers = 4 # 多线程加载数据
use_gpu = True # 使用 GPU
style_path= 'style.jpg' # 风格图片存放路径
lr = 1e-3 # 学习率
env = 'neural-style' # visdom env
plot_every=10 # 每 10 个 batch 可视化一次
epoches = 2 # 训练 epoch
content_weight = 1e5 # content_loss 的权重
style_weight = 1e10 # style_loss 的权重
model_path = None # 预训练模型的路径
debug_file = '/tmp/debugnn' # touch $debug_fie 进入调试模式
content_path = 'input.png' # 需要进行风格迁移的图片
result_path = 'output.png' # 风格迁移结果的保存路径
部分风格迁移的结果:
如果需要训练其它风格的图片,只需要修改--style-path
对应的风格图片。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论