アンプやスピーカーなど再生系に不満がなくなると、あとは純粋に音楽を聴くのが通常の趣味としてのオーディオの世界だと思います。
しかしながら、自分がまだ知らない、あるいは巡り会えていない楽曲を、有限の人生の中でどこまで見つけ出して、実際に聴けるのかは、本質的な課題だと考えます。
実際、YouTube, Spotify, AmazonMusic, AppleMusicなどのレコメンデーション機能は依然として、発展段階にあるようです。
というわけで、ないものは作るしかないので、リサーチと試作を行いたいと思います。
まず、手始めに、このあたりから攻めてみたいと思います。
Real-time music annotation with deep learning in Essentia
オーディオのストリームをPCのSoundCardから、リアルタイムで読み取って、ディープラーニング(TensolFlow)で音楽の特徴のタグ付けやジャンルの分類を信号処理(Spectrogram)のAPIライブラリ(Essentia)行っているデモ画像です。
音楽の場合、楽曲の特徴を言葉でタグ付けや分類すれば、通常のキーワード検索技術で対応できるようになります。
一方で、新しい音楽やジャンル、微妙なリズムやメロディ、ハーモニーといったもの(音響モデル)は、そもそも言語化が難しく、いわゆる楽譜(Piano Roll)やコード進行、リズムパターンといった、高度な音楽情報の言語モデルによる研究も行われているようです。