Upload 20 files
Browse filesupload unit4 refined 01&02 nootbook.md
markdown/unit4/01_ddim_inversion_CN.md
CHANGED
The diff for this file is too large to render.
See raw diff
|
|
markdown/unit4/02_diffusion_for_audio_CN.md
CHANGED
@@ -1,9 +1,9 @@
|
|
1 |
# 音频扩散模型
|
2 |
|
3 |
-
|
4 |
|
5 |
## 你将会学习到:
|
6 |
-
-
|
7 |
- 源音频数据与频谱间的转换方法
|
8 |
- 如何准备一个由特定的整理函数(collate function),能够把音频片段转换到频谱的数据生成器
|
9 |
- 微调一个指定分类曲风的音频扩散模型
|
@@ -243,20 +243,6 @@ dataset = load_dataset('lewtun/music_genres', split='train')
|
|
243 |
dataset
|
244 |
```
|
245 |
|
246 |
-
Using custom data configuration lewtun--music_genres-2cfa9201f94788d8
|
247 |
-
Found cached dataset parquet (/home/ubuntu/.cache/huggingface/datasets/lewtun___parquet/lewtun--music_genres-2cfa9201f94788d8/0.0.0/2a3b91fbd88a2c90d1dbbb32b460cf621d31bd5b05b934492fdef7d8d6f236ec)
|
248 |
-
|
249 |
-
|
250 |
-
|
251 |
-
|
252 |
-
|
253 |
-
Dataset({
|
254 |
-
features: ['audio', 'song_id', 'genre_id', 'genre'],
|
255 |
-
num_rows: 19909
|
256 |
-
})
|
257 |
-
|
258 |
-
|
259 |
-
|
260 |
你可以使用下面的代码来看看在数据集中各类别样本的占比:
|
261 |
|
262 |
|
@@ -343,7 +329,7 @@ sample_rate_dataset
|
|
343 |
|
344 |
|
345 |
|
346 |
-
这里我们用torchaudio's transforms
|
347 |
|
348 |
|
349 |
```python
|
@@ -360,7 +346,7 @@ def to_image(audio_array):
|
|
360 |
return im
|
361 |
```
|
362 |
|
363 |
-
来使用我们的`to_image()`函数来组成我们特定的整理函数(collate function)来把数据集转换到dataloader
|
364 |
|
365 |
|
366 |
```python
|
@@ -509,7 +495,7 @@ display(Audio(output.audios[0], rate=22050))
|
|
509 |
|
510 |
|
511 |
|
512 |
-
|
513 |
|
514 |
一些需要考虑的事情
|
515 |
- 我们使用的是256像素点的方形频谱图片,这会限制住我们的batchsize。你能够从128x128的频谱中恢复出质量足够好的音频吗?
|
@@ -555,13 +541,6 @@ create_repo(hub_model_id)
|
|
555 |
```
|
556 |
|
557 |
|
558 |
-
|
559 |
-
|
560 |
-
'https://huggingface.co/johnowhitaker/Electronic_test'
|
561 |
-
|
562 |
-
|
563 |
-
|
564 |
-
|
565 |
```python
|
566 |
# Upload the files
|
567 |
api = HfApi()
|
@@ -580,13 +559,6 @@ api.upload_file(
|
|
580 |
```
|
581 |
|
582 |
|
583 |
-
|
584 |
-
|
585 |
-
'https://huggingface.co/johnowhitaker/Electronic_test/blob/main/model_index.json'
|
586 |
-
|
587 |
-
|
588 |
-
|
589 |
-
|
590 |
```python
|
591 |
# Push a model card
|
592 |
content = f"""
|
@@ -620,13 +592,6 @@ card = ModelCard(content)
|
|
620 |
card.push_to_hub(hub_model_id)
|
621 |
```
|
622 |
|
623 |
-
|
624 |
-
|
625 |
-
|
626 |
-
'https://huggingface.co/johnowhitaker/Electronic_test/blob/main/README.md'
|
627 |
-
|
628 |
-
|
629 |
-
|
630 |
## 总结
|
631 |
|
632 |
希望这片笔记让你浅尝到音频生成的潜力。请再留意下此单元在介绍中的一些参考链接,去看一些更酷炫的方法和它们所创造的惊艳内容!
|
|
|
1 |
# 音频扩散模型
|
2 |
|
3 |
+
在此篇笔记,我们来看看使用扩散模型生成音频的过程。
|
4 |
|
5 |
## 你将会学习到:
|
6 |
+
- 音频在电脑中是被如何展示
|
7 |
- 源音频数据与频谱间的转换方法
|
8 |
- 如何准备一个由特定的整理函数(collate function),能够把音频片段转换到频谱的数据生成器
|
9 |
- 微调一个指定分类曲风的音频扩散模型
|
|
|
243 |
dataset
|
244 |
```
|
245 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
246 |
你可以使用下面的代码来看看在数据集中各类别样本的占比:
|
247 |
|
248 |
|
|
|
329 |
|
330 |
|
331 |
|
332 |
+
这里我们用torchaudio's transforms(import as AT)来做音频的重采样,pipe中的`mel`把音频转换为图像,torchvision's transforms(导入为IT)来把图片转换为tensors。这个函数可以把音频片段转换为频谱tensor供训练使用:
|
333 |
|
334 |
|
335 |
```python
|
|
|
346 |
return im
|
347 |
```
|
348 |
|
349 |
+
来使用我们的`to_image()`函数来组成我们特定的整理函数(collate function)来把数据集转换到dataloader中来训练模型。整理函数定义了如何把一批来自数据集的样例变换为最终的训练用数据。在这个例子中我们把每个音频转换为频谱图像再把他们的tensors堆叠起来:
|
350 |
|
351 |
|
352 |
```python
|
|
|
495 |
|
496 |
|
497 |
|
498 |
+
这个输出听起来绝不是最好的,但这是一个开始 :)探索一下调整学习率和迭代周期,并在Discord上分享你的最佳结果,我们就可以来一起进步了!
|
499 |
|
500 |
一些需要考虑的事情
|
501 |
- 我们使用的是256像素点的方形频谱图片,这会限制住我们的batchsize。你能够从128x128的频谱中恢复出质量足够好的音频吗?
|
|
|
541 |
```
|
542 |
|
543 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
544 |
```python
|
545 |
# Upload the files
|
546 |
api = HfApi()
|
|
|
559 |
```
|
560 |
|
561 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
562 |
```python
|
563 |
# Push a model card
|
564 |
content = f"""
|
|
|
592 |
card.push_to_hub(hub_model_id)
|
593 |
```
|
594 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
595 |
## 总结
|
596 |
|
597 |
希望这片笔记让你浅尝到音频生成的潜力。请再留意下此单元在介绍中的一些参考链接,去看一些更酷炫的方法和它们所创造的惊艳内容!
|