背景
因为最近在看 stable diffusion 的文章,想把一些不太清楚的具体翻译出来。而最近AIGC又非常火(特指ChatGPT),由此想对比下与传统翻译软件的差别,看看时代是否真的不一样了。
下面例子的原文见 https://huggingface.co/blog/annotated-diffusion
In this blog post, we'll take a deeper look into Denoising Diffusion Probabilistic Models (also known as DDPMs, diffusion models, score-based generative models or simply autoencoders) as researchers have been able to achieve remarkable results with them for (un)conditional image/audio/video generation. Popular examples (at the time of writing) include GLIDE and DALL-E 2 by OpenAI, Latent Diffusion by the University of Heidelberg and ImageGen by Google Brain.
吃瓜现场
在这篇博文中,我们将更深入地研究去噪扩散概率模型(也称为 DDPM、扩散模型、基于分数的生成模型或简称为自动编码器),因为研究人员已经能够使用它们取得显着的结果(un) 条件图像/音频/视频生成。 流行的例子(在撰写本文时)包括 OpenAI 的 GLIDE 和 DALL-E 2、海德堡大学的 Latent Diffusion 和 Google Brain 的 ImageGen。
很多地方都不准确,如“简称为自动编码器”、“(un) ”,句子也不连贯。
apple
在这篇博客文章中,我们将更深入地研究去噪扩散概率模型(也称为DDPM、扩散模型、基于分数的生成模型或简单的自动编码器),因为研究人员已经能够通过它们在(无条件的图像/音频/视频生成方面取得了显著效果。流行的例子(在撰写本文时)包括OpenAI的GLIDE和DALL-E 2、海德堡大学的潜在扩散和Google Brain的ImageGen。
整体比google要好,但“无条件”这里的括号放错位置了,“潜在扩散”这里用原文比较好。
deepl
在这篇博文中,我们将深入了解去噪扩散概率模型(也被称为DDPMs、扩散模型、基于分数的生成模型或简单的自动编码器),因为研究人员已经能够利用它们在(无)条件的图像/音频/视频生成方面取得显著成果。流行的例子(在撰写本文时)包括OpenAI的GLIDE和DALL-E 2,海德堡大学的Latent Diffusion和谷歌大脑的ImageGen。
效果非常自然,准确,唯一一个翻译软件精确保留了“DDPMs”。
chatgpt
在这篇博客文章中,我们将深入探讨去噪扩散概率模型(也称为DDPM、扩散模型、基于分数的生成模型或简单的自编码器),因为研究人员已经通过它们在(无)条件图像/音频/视频生成方面取得了卓越的成果。目前(撰写本文时)流行的例子包括OpenAI的GLIDE和DALL-E 2、海德堡大学的Latent Diffusion以及Google Brain的ImageGen。
作为一个AGI(通用人工智能)产品,在翻译的流畅和含义清晰上与deepl基本一致,远比传统翻译软件要好(只在一些细节上不够精确,如原文没有的“目前”,这毕竟是个聊天软件和生成模型,它不会逐字逐句的对应)。这真的已经很棒了!
简单总结
这篇文章讨论了去噪扩散概率模型(DDPM)以及相关领域的研究成果,包括它们在条件和无条件的图像、音频和视频生成方面的显着效果。该文章比较了几个翻译工具的翻译结果,包括Google、Apple、deepl和ChatGPT。其中,ChatGPT和deepl的翻译效果都非常好,几乎接近了人类翻译的水平。值得一提的是,ChatGPT作为一个AGI产品,在流畅性和含义清晰性方面与deepl基本一致。
(by ChatGPT)
网友评论