XhrLeokk commited on
Commit
ed4ea84
1 Parent(s): 52b8fdb

Upload 20 files

Browse files

upload unit4 refined 01&02 nootbook.md

markdown/unit4/01_ddim_inversion_CN.md CHANGED
The diff for this file is too large to render. See raw diff
 
markdown/unit4/02_diffusion_for_audio_CN.md CHANGED
@@ -1,9 +1,9 @@
1
  # 音频扩散模型
2
 
3
- 在此篇笔记,我们将简短地来看看使用扩散模型生成音频的过程。
4
 
5
  ## 你将会学习到:
6
- - 音频在电脑中被如何展示
7
  - 源音频数据与频谱间的转换方法
8
  - 如何准备一个由特定的整理函数(collate function),能够把音频片段转换到频谱的数据生成器
9
  - 微调一个指定分类曲风的音频扩散模型
@@ -243,20 +243,6 @@ dataset = load_dataset('lewtun/music_genres', split='train')
243
  dataset
244
  ```
245
 
246
- Using custom data configuration lewtun--music_genres-2cfa9201f94788d8
247
- Found cached dataset parquet (/home/ubuntu/.cache/huggingface/datasets/lewtun___parquet/lewtun--music_genres-2cfa9201f94788d8/0.0.0/2a3b91fbd88a2c90d1dbbb32b460cf621d31bd5b05b934492fdef7d8d6f236ec)
248
-
249
-
250
-
251
-
252
-
253
- Dataset({
254
- features: ['audio', 'song_id', 'genre_id', 'genre'],
255
- num_rows: 19909
256
- })
257
-
258
-
259
-
260
  你可以使用下面的代码来看看在数据集中各类别样本的占比:
261
 
262
 
@@ -343,7 +329,7 @@ sample_rate_dataset
343
 
344
 
345
 
346
- 这里我们用torchaudio's transforms(导入为AT)来做音频的重采样,pipe中的`mel`把音频转换为图像,torchvision's transforms(导入为IT)来把图片转换为tensors。这个函数可以把音频片段转换为频谱tensor供训练使用:
347
 
348
 
349
  ```python
@@ -360,7 +346,7 @@ def to_image(audio_array):
360
  return im
361
  ```
362
 
363
- 来使用我们的`to_image()`函数来组成我们特定的整理函数(collate function)来把数据集转换到dataloader中来训练模型。整理函数定义了如何把一批来自数据集的样例变换为最终训练用数据。在这个例子中我们把每个音频转换为频谱图像再把他们的tensors堆叠起来:
364
 
365
 
366
  ```python
@@ -509,7 +495,7 @@ display(Audio(output.audios[0], rate=22050))
509
 
510
 
511
 
512
- 这个输出听起来不是最美妙的,但这是一个开始 :)探索一下调整学习率和迭代周期,并在Discord上分享你的最佳结果,我们就可以来一起进步了!
513
 
514
  一些需要考虑的事情
515
  - 我们使用的是256像素点的方形频谱图片,这会限制住我们的batchsize。你能够从128x128的频谱中恢复出质量足够好的音频吗?
@@ -555,13 +541,6 @@ create_repo(hub_model_id)
555
  ```
556
 
557
 
558
-
559
-
560
- 'https://huggingface.co/johnowhitaker/Electronic_test'
561
-
562
-
563
-
564
-
565
  ```python
566
  # Upload the files
567
  api = HfApi()
@@ -580,13 +559,6 @@ api.upload_file(
580
  ```
581
 
582
 
583
-
584
-
585
- 'https://huggingface.co/johnowhitaker/Electronic_test/blob/main/model_index.json'
586
-
587
-
588
-
589
-
590
  ```python
591
  # Push a model card
592
  content = f"""
@@ -620,13 +592,6 @@ card = ModelCard(content)
620
  card.push_to_hub(hub_model_id)
621
  ```
622
 
623
-
624
-
625
-
626
- 'https://huggingface.co/johnowhitaker/Electronic_test/blob/main/README.md'
627
-
628
-
629
-
630
  ## 总结
631
 
632
  希望这片笔记让你浅尝到音频生成的潜力。请再留意下此单元在介绍中的一些参考链接,去看一些更酷炫的方法和它们所创造的惊艳内容!
 
1
  # 音频扩散模型
2
 
3
+ 在此篇笔记,我们来看看使用扩散模型生成音频的过程。
4
 
5
  ## 你将会学习到:
6
+ - 音频在电脑中是被如何展示
7
  - 源音频数据与频谱间的转换方法
8
  - 如何准备一个由特定的整理函数(collate function),能够把音频片段转换到频谱的数据生成器
9
  - 微调一个指定分类曲风的音频扩散模型
 
243
  dataset
244
  ```
245
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
246
  你可以使用下面的代码来看看在数据集中各类别样本的占比:
247
 
248
 
 
329
 
330
 
331
 
332
+ 这里我们用torchaudio's transforms(import as AT)来做音频的重采样,pipe中的`mel`把音频转换为图像,torchvision's transforms(导入为IT)来把图片转换为tensors。这个函数可以把音频片段转换为频谱tensor供训练使用:
333
 
334
 
335
  ```python
 
346
  return im
347
  ```
348
 
349
+ 来使用我们的`to_image()`函数来组成我们特定的整理函数(collate function)来把数据集转换到dataloader中来训练模型。整理函数定义了如何把一批来自数据集的样例变换为最终的训练用数据。在这个例子中我们把每个音频转换为频谱图像再把他们的tensors堆叠起来:
350
 
351
 
352
  ```python
 
495
 
496
 
497
 
498
+ 这个输出听起来绝不是最好的,但这是一个开始 :)探索一下调整学习率和迭代周期,并在Discord上分享你的最佳结果,我们就可以来一起进步了!
499
 
500
  一些需要考虑的事情
501
  - 我们使用的是256像素点的方形频谱图片,这会限制住我们的batchsize。你能够从128x128的频谱中恢复出质量足够好的音频吗?
 
541
  ```
542
 
543
 
 
 
 
 
 
 
 
544
  ```python
545
  # Upload the files
546
  api = HfApi()
 
559
  ```
560
 
561
 
 
 
 
 
 
 
 
562
  ```python
563
  # Push a model card
564
  content = f"""
 
592
  card.push_to_hub(hub_model_id)
593
  ```
594
 
 
 
 
 
 
 
 
595
  ## 总结
596
 
597
  希望这片笔记让你浅尝到音频生成的潜力。请再留意下此单元在介绍中的一些参考链接,去看一些更酷炫的方法和它们所创造的惊艳内容!