Deneysel müzik meraklıları artık gerçek zamanlı kompozisyon için bir araca sahip: Google'ın Magenta RealTime'ı. Bu yapay zekayı farklı kılan şey, tamamlanmış parçalar oluşturmak yerine sadece iki saniyelik mikro-fragmanlarla çalışmasıdır.
Bu teknik bazı şaşırtıcı avantajlar sunuyor. Öncelikle, sistem standart dizüstü bilgisayarlarda bile sorunsuz çalışıyor; demo, Google Colab'ın ücretsiz katmanında güvenilir bir şekilde çalışıyor. İkincisi, müzisyenler sesleri anında oluşturma sırasında ayarlayabiliyor, bu da canlı doğaçlamayı yansıtıyor. Yapay zeka sürekli olarak çıktının son 10 saniyesini "dinliyor", böylece kesintisiz geçişler sağlıyor.
Arka planda, Magenta RealTime, 190.000 saatlik enstrümantal müzikle eğitilmiş 800 milyon parametreli bir Transformer modelidir. Kullanıcılar, metin istemleri veya ses örnekleriyle onu yönlendiriyor ve sistem iki saniyelik, stüdyo kalitesinde (48 kHz) parçalar üretiyor. Sonuç, algoritma ile birlikte doğaçlama yapıyormuş gibi hissettiriyor.
Ancak teknoloji bazı tuhaflıklara sahip. Eğitim verileri nedeniyle, Batı türlerini daha iyi işliyor ve anlaşılır vokaller üretemiyor. Ayrıca, stil değişikliklerinin devreye girmesi 2-3 saniye süren hafif bir tepki gecikmesi var. Geliştiriciler bu gecikmeyi kısaltmak için çalışıyorlar.
Modelin kaynak kodu ve ağırlıkları artık açık kaynaklı, bu da meraklıların sistemi arka planda kurcalamasına olanak tanıyor. Şu anda, Magenta RealTime daha çok cilalı bir ürün gibi değil, ses keşfi için deneysel bir kum havuzu gibi hissediliyor. Bununla birlikte, ekip, hedeflerinin müzisyenleri değiştirmek değil, sanatçılara temelde yeni bir dijital enstrüman sunarak spontane yaratıcılığı ateşlemek olduğunu vurguluyor.