monkey, music, concert-3507317.jpg

오픈 소스 인공지능 작곡의 새 시대가 열렸습니다!

놀라운 뉴스가 전해졌습니다! Meta에서 텍스트와 음악 프롬프트를 기반으로 음악을 생성하는 오픈소스 음악 LL모델인 MusicGen을 출시했습니다. 이 모델은 무려 2만 시간의 라이선스된 음악, 만 개의 곡 및 Shutterstock에서 얻은 데이터로 학습되었습니다. 이것이 바로 Stable Diffusion/LLaMA 기술이 음악에 접목된 순간입니다.

이미 사람들 사이에서 화제가 되고 있으며, 꿈의 사운드트랙을 만들어 보는 것에 대한 관심이 높아지고 있습니다. 예를 들어, Harry Styles의 Lofi 리믹스 같은 것도 가능합니다. 수박 설탕처럼 달콤한 A-I 음악을 맛보세요.

오픈 소스인 만큼 Hugging Face에서 누구나 MusicGen을 사용해 볼 수 있습니다. 다음과 같은 템플릿을 추천합니다: “a [type of music] track with [type of instrument] at [#] BPM in the style of [musician’s] [specific melody/song].”

구글의 MusicLM과 비교해보면, MusicGen은 프롬프트를 더 정확하고 고해상도로 해석한다고 알려져 있습니다. 이러한 차이점을 옆에서 직접 비교한 이 스레드에서 확인할 수 있습니다.

왜 중요한가요?

기본적으로 이것은 무수히 많은 새로운 곡들을 만들어낼 수 있는 판도라의 상자입니다. 학습 데이터가 라이선스된 것이기 때문에, 작곡가들은 저작권 문제를 걱정하지 않고 창조적인 활동에 몰입할 수 있습니다.

우리는 이 혁신적인 기술이 어떤 멋진 음악을 만들어낼 지 벌써부터 설레고 기대됩니다. 음악을 향한 열정을 불태워보세요!