有没有办法可视化从WAV2VEC 2.0获得的嵌入?

发布于 2025-02-07 06:12:27 字数 208 浏览 2 评论 0原文

我想从头开始训练Word2Vec 2.0模型,但我对该领域有些新。至关重要的是,我想使用大型非人类语音(即鲸类声音)进行训练,以捕获基础结构。

一旦执行了预训练,是否可以以类似的方式可视化模型创建的嵌入,以便在使用EG CNN时如何在图像处理中可视化的潜在特征?还是说明太抽象而无法映射到频谱图?

我想做的是查看网络作为语音单位学习的功能。

事先感谢您的帮助!

I'm looking to train a word2vec 2.0 model from scratch, but I am a bit new to the field. Crucially, I would like to train it using a large dataset of non-human speech (i.e. cetacean sounds) in order to capture the underlying structure.

Once the pre-training is performed, is it possible to visualize the embeddings the model creates, in a similar way to how latent features are visualized in image processing when using e.g. CNNs? Or are the representations too abstract to be mapped to a spectrogram?

What I would like to do is to see what features the network is learning as the units of speech.

Thanks in advance for the help!

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文