Select Your Language

免責事項

  • 本サイトの情報の利用、内容、サービスによって、利用者にいかなる損害、被害が生じても、著者は一切の責任を負いません。ユーザーご自身の責任においてご利用いただきますようお願いいたします。

    本サイトで頒布している基板およびキットは、技術者、またはそれに準ずる電気的知識をお持ちの電子工作ファンの方のためのものです。 一般のオーディオファンの方のためのものではありません。
    また、頒布基板およびキットは、いかなる条件でも動作を保証するものではございませんので、あらかじめご了承ください。

    電子工作では、火傷、感電、火災などの可能性があります。 十分に注意をして作業して下さい。

    営利目的のご使用は認めておりません。  記事の転載や、基板・キットの商用利用の方は、ご連絡ください。
    学生やサークルの学習目的でまとめてご購入する場合は特別なコースをご用意させていただきます。

スポンサー

« Philewebのラズパイ・オーディオ通信(52)にて | トップページ | 新DAC基板のプログラム ほぼ完成。 »

2018年11月30日 (金)

時間分解能で比較してみるPCMとDSD 楽器までの距離との関係

DSDをPCMに変換すると、空気感が減ってしまうという意見が複数名からあり、違いは何だろうと考えていました。

音の記録のデジタル化において、記録可能な周波数から考えると20kHzまで記録できればOKという共通認識をもとに、CDが40kHzをちょっと超えるサンプリング周波数に決まったのはご存知の通りです。(細かいところは色々あったようですが。)

近年のハイレゾ音源は、CDと同じPCM方式で、96kHzや192kHz、ビット数が24bitや32bitというフォーマットが主流です。少数派ですがDSD音源も少しづつ増えてきています。

人には聞えないとされる20kHz以上の高音が入るという面と、時間軸/電圧軸の分解能が高いという面がハイレゾにはあると考えられます。

Dsd

DSD信号は、この図のように非常に細かいパルスで表現することで1bitながら音楽を記録することができます。

 

単純に1秒をサンプリング周波数で割ると以下のような数値が出てきます。これが時間分解能となります。

 

44.1kHz     22.68us

96kHz       10.42us

192kHz       5.21us

384kHz      2.60us

2.8224MHz DSD   0.35us

5.6448MHz DSD   0.18us

 

PCMでは、サンプリング毎に電圧レベルが確定するのですが、DSDの場合は1サンプルだけでは成り立たないという違いがありますので 単純比較はできません。 が、とりあえず話を進めます。

 

音速を340m/sとすると、22usという時間では7.5mm。
5usでは1.7mmの距離に相当します。ステージ上の楽器と観客席の距離を考えれば

  192kHzサンプリングの約5usで十分な気がしますね。

 

ただし、この距離は耳と楽器との直線距離であり、左右方向の認識という意味で2つの耳に到達する時間差はもっと細かい時間分解能が必要になってきます。とあるオーディオ技術者から聞いた話では左右の耳で1usの差を人は感知できるという見解もあるようです。

 

1usの差というと、距離にして0.34mmの差です。さすがに過剰な数値に思われます。

ここで、

三角法計算サイトを駆使して、左右方向の分解能に換算してみましょう。

 

 

   Dsd3_2

両耳の間隔を20cmとして、3m先の音源を1cm横にズラすと左右の耳までの距離は約0.33mmの差が生まれる。この状態で到達時間1usの差が発生することになります(音速340m/sとして)

 

個人的には2m先の音源(例えば、鉛筆でノートに文字を書くなど音の発生源が小さいもの)が1cmくらい動くと判別できそうな気がするので、耳の良い人ならば3m先の音源が1cmずれるのは判別可能だと思われます。

 

そう考えると、PCMの192kHzよりもDSDの2.8MHzサンプリングの方が時間的な分解能が高く、音の定位、空気感がよく出るというのは説明できないことではないと思います。

 

蛇足になりますが、dsd2pcmのソースをみると8サンプリング分をまとめて処理しています。この時点で時間分解能は1/8に落ちていて空気感が低減したように感じるという意見は、非常に的確といえます。

みなさん耳が良いですね。

 

 

PCM録音ものを後からDSD変換したデータは、せっかくのDSDの時間分解能の良さを生かしていないと言えます。

またミキシングなど途中一度でもPCMに変換すると、時間軸はそのサンプリング周期まで落ちてしまいます。MIDIの打ち込みでいうクオンタイズに似ているかもしれませんね。2usや5usの時間差があったはずなのに、分解能が10usしかないフォーマットでは、強制的にそこに叩き込まれてしまう。イメージでいうと16分音符や32分音符で弾いているのに、録音されたら4分音符になっていたという感じ。

 

時間軸で離散化しないアナログレコーディングはこういう問題は発生しません。DSDはアナログと似ているというのは、こういう部分があるからなのかもしれませんね。

なかなか奥が深いです。

 

 

Dsd2

ちなみに、2.8MHzDSDの信号を1us/divで拡大するとこんな感じです。1サンプリングの間隔が0.35usと小さくても、フィルタを通したアナログ信号が即座に反応できている訳ではありません。

 

 

 

追記=======================

面白いご質問が出てきましたので図を追加いたします。

Dsd4

単純なステップ波形です。22usのサンプリングとします。A・B・Cのどのタイミングで波形が入力されても、記録されるデータは全て同じになる。 というのを表したものです。

 

PCで1kHzの矩形波を出力してオシロで見ると分かりやすいです。 fs44.1kHzで1kHzを表すと、ぴたりと割り切れない数値のため、時々波形が1サンプル分(22us)ズレることがあります。非同期の離散化ならではの現象です。 ビット深度は8bitでも16bitでも32bitでも解消しません。

このように記録されたデータを再生するとき、何万TAPのデジタルフィルタを使って何倍にアップサンプリングしても、元のタイミングを復元できないのは想像に難くないと思います。(フィルタ回路にとって元のタイミングを知る由もない) クオンタイズ以前のタイミングは、演奏者自身、もしくはレコーディン現場に立ち会った人しか知らないのです。

ラジカセ(カセット)でもオープンリールでもアナログレコーディング機器では、コレは起きません。

ですが、録音時のサンプリング周波数を上げると解消方向に向かいます。 図中の細い縦線は16倍の705.6kHz相当です。

 

 

 

にほんブログ村 PC家電ブログ PCオーディオへ にほんブログ村
ブログランキングに参加中です。 めざせ1位! 
もしよろしければ「ぽちっと」お願いします。 

« Philewebのラズパイ・オーディオ通信(52)にて | トップページ | 新DAC基板のプログラム ほぼ完成。 »

デジタルオーディオ技術」カテゴリの記事

コメント

とても興味深いお話有難う御座います。AM変調と FM変調の違い程度にしか認識していませんでした。“左右の耳で1usの差を人は感知できる”というにはすごいですね。視覚障がい者が訓練で獲得できる“エコーロケーション”という能力をおもいだしました。オーディオセットで映像を見せる?未来もあるのかも。それに近い研究者もいるみたいです。
https://www.gizmodo.jp/2015/07/sight.html

onajinn さん

本当は、直接音だけではなく、壁などからの反射音も含めて位置を特定できているのだ思うのです。計算上では数usくらいの感知能力がないと、音の発生源の特定ができないと思われます。

ただ実際のホールに行ってオケを聞いたりしても、ステージ上の各楽器の位置がぴたりと分解(分離)して聴こえるという事はないですね。
ステージの上にいると、結構、それぞれの楽器の位置が特定できるんですけども。。

gizmode記事のプロジェクト、面白いですね。
高さ方向はどうやって表現しているのかが気になりました。

いつも興味深く為になるお話を有難うございます。

Chord社のDACで行われているWTAフィルターでのオーバーサンプリング処理が音の立ち上がり(過渡特性)の改善を目的に行われているとの解説を思い出しました。

https://av.watch.impress.co.jp/docs/news/746780.html
https://sandalaudio.blogspot.com/2017/10/chord-hugo-2.html

PCMを演算でDSDに近付けているようなものでしょうか。
もっともChord社のロバート・ワッツが別の理由からDSDに否定的なのところが面白いですね。


調べてないで書くのもあれなんですが、DSDってどうやって録音するんでしょう。電圧をAD変換するとPCMになってしまいますよね。
ミキシングのときもどうするんでしょう・・・PCMどころかFFTしたらさらに落ちると思うのですが・・・

travi さん

ChordのDACはFPGAを使っていることを前面に押し出していて特徴がありますね。

昨年のヘッドホン祭でHugo2の試作機を試聴したのですが、残念ながら思うような音が聴けませんでした。発振ぎみのアンプのような位相余裕がない音。 まあ試作機なので量産であの音ということはないと思います。

紹介していただいたwebサイトは私も読んでいました。 ワッツさんは既存のDAC(内蔵デジタルフィルタ)に不満とのことですが、記録されたデータで欠落している情報は、例えFPGAを使ってもフィルタで取り戻せるとは思いませんね。

クオンタイズされて、粗いサンプリングの前後のどちからへズレたものは、FPGAがその録音時に聞いていて憶えているのならともかく、upサンプリングを何倍にしても本来あるべき場所へ戻るわけではないと思います。

デジタルフィルタの特性としては、350dBに及ぶフィルタ性能ということで、XilinxのFPGAの18bit乗算器を4つ使って72bitにしているかもしれません。

もっている技術はスゴイはずなのですが、なんだか釈然としない説明で実態が掴めません。。。 DSDに否定的なのに、17次のノイズシェーピングを使ってるとかも書いていて矛盾しているし。(DSDはノイズシェーピングの賜物です)

DSDのミキシングは非常に大変で、逆に変な処理をされないから純度が高いままSACDなどの最終媒体に記録されるというメリットがあると思います。

dsd信号が出るADCというものがあります。例えばTIのPCM4222などです。コルグのDSDレコーダーMR-2000SはPCM4202 を使ってますね。

いつも勉強させていただいております。
今回、ちょっと気になることがあったので、レスさせてください。
よろしければ、お考えをお聞かせください。

>単純に1秒をサンプリング周波数で割ると以下のような数値が出てきます。これが時間分解能となります。
>44.1kHz 22.68us

ここに異議があります。
といいますか、以前から疑問を感じています。

サンプリングデータにはビット深度という要素もあります。
16bitであれば65536の階調をもって、その瞬間のデータを表現できます。

思考実験してみます。
DACはサンプリング定理に理想的に従うとして。
モノラル音源のPCMファイルを考えます。左右のデータは同じです。
デジタルデータの時間的連なりでできている。
例えば今この瞬間に、30000という数値のデータA点があったとします(2進法を10進法に書き換えたら30000という意味です)。
前後にも連なるデータがあって、DACが音に変換します。

仮にその音を、ほんのわずか時間をずらして、理想的にAD変換したデータを作る。
その結果、30000のデータA点があった瞬間には、30001という数値のデータB点が生まれたとします。
前後にも連なるデータも少しずつ数値が変わったPCMファイルができる。

そこで片方チャンネルだけ、元ファイルのデータと入れ替えたらどうなるか。
理想的なDACは、30000のデータA点で生まれる音と、30001のデータB点で生まれる音の、時間差を表現できるはずです。
結果、音像が横にずれる。

つまり、サンプリング周波数だけではなく、ビット深度も時間分解能に影響するのではないかと言いたいのです。
44.1kHzで22.68usというのは、1bitのDSDファイルの場合だったらそうなるということではないでしょうか。

65536分の1の時間差を表現できるとしたら、僕のおおざっぱな計算では、0.35nsの時間分解能ということになります。
単純に22.68usを65535で割っただけです。
これには落とし穴があるような気もしますが。
現実にはそんな数値はありえなくて、理想には程遠いから空気感が出ないと言われる様な事になってるんだろうと思っています。

いかがでしょうか。
乱筆、ご容赦ください。

DSD信号が出るADC、内部的にはコンパレータでも入っているんでしょうかね。憶測です。
ところでDSD信号は1bitなので、例えば16bitの信号を出力しようと思ったら44100Hzの16倍ではなく、重みづけを考えると65536倍サンプルが必要なのではないかと思いました・・・間違ってますか?

flyingnote さん

おっしゃる通りですね。PCMにはサンプリングの瞬間ごとに電圧レベルが確定しCDなら16bitの階調表現ができます。

上の記事では説明を簡単にするために、本来モノクロ写真のように階調表現ができるものを、FAXのように白黒の2階調しか無いもののように書いています。

関係を数式で表せないのがもどかしいのですが、音像の表現力は時間軸も階調軸も関係するけど、依存度は時間軸の方が強いような気がしています。

なんの根拠もありませんが、サンプリング間隔の1/10~1/20くらいまでは階調表現でタイミング情報を補間できるけど、それ以上の領域では階調度を上げていっても効果は僅だと思っています。


もしオシロスコープをお持ちでしたら、PCでfs44.1kHz、1kHz矩形波を出して観測してみると良いかと思います。fs48kHzだと割り切れるので1003Hzくらいにすると良いです。
再生するDACは4倍や8倍のオーバーサンプリングデジタルフィルタが効いていても構いません。 クオンタイズという例えが、なんとなく理解いただけると思います。

ソフトはWaveGeneが簡単で便利です。


管楽器や弦楽器のように立ち上がりの遅い音が多い中、スネアのリムショットやクラベスのような打楽器でパルス性が高い音も存在します。電子的に作った1kHz矩形波の立ち上がりには及ばないとは思いますが、似たような鋭い立ち上がり方をすると思います。

ご想像の通りコンパレータは入っています。

アナログ信号->高速コンパレータ->1bit->PCM変換->PCM出力

詳しくはPCM4222のデータシートをご覧ください。

1bitだからといって単純に階調分のパルス数が必要になる訳ではなく、一種のフィードバックにより誤差を後の信号へと戻しているのがデルタシグマ変調の特徴です。ノイズシェイパーとも言われていて、可聴帯域のダイナミックレンジを広げる働きをします。(その分、可聴帯域外の高域にノイズが移動している)

そのため、CDの64倍、もしくは128倍と低い倍数で十分なダイナミックレンジが得られるようになります。

http://ja.wikipedia.org/wiki/%CE%94%CE%A3%E5%A4%89%E8%AA%BF

たかじんさん
お世話になります。
初歩的な質問で、すいません。
今度リリースのDACのチップは、
FN1242Aみたいに、「P2D(ΔΣ変調)」+「DSD_DAC(LPF)」の
構成になっているのでしょうか?
だとしたら、dsd信号がスルーで「DSD_DAC(LPF)」に
入るので、気分的にスッキリしますね。
リリース心待ちにしてます。

大変興味深い解説をありがとうございます。

たかじんさんは、以前、DSDに否定的なご意見を書かれていたと思いますが、正直なところどうお考えでしょうか?

小生は、LPレコードをコルグのDSDレコーダにてデジタル化してしてMPDで楽しんでいるので、新しいDAC基板には期待しております。

コルグのAudioGateはRIAA特性をソフトウェアで実現した理想RIAAカーブで録音できます。 現段階で最強のLPレコーディング環境が数万円で手に入ります。

たかじん さん

波形のサンプリング比較の図と解説を追記頂き有難うございます。
アップサンプリングを行っても元の波形に完全に近付くわけではないことは漠然とは分かっておりましたが、この図を見るとはっきり理解できますね。

Chordの処理とはまた違いますが、最近は機器側でPCMを一度DSD信号に変換した上でアナログ変換しているものもありますね。高音質化という点ではともかく色々な方式があって面白いものです。

初心者ABさん

お詳しいですね。 1bit系のDACは、DSDと原理的にほぼ同じ、デルタシグマ変調を行なっています。
というより、DSDの方が後から名称をつけたもので、SACDが登場するよりも10年以上前から1bitDACがあり、その中でデルタシグマ変調を行なっていました。

なんといいますか、ポータブルMP3プレイヤーが各社から色々出ていたのに、後からiPodが出てきて、そちらが一般名称になった。みたいなイメージです。

ということで、PCMのデータはデルタシグマ変調して1bit化してアナログへ変換しているので、DSD信号は前段を飛ばして後段へと信号が送られるのが自然の流れです。DSDを受けられる殆どの1bitDACがそうしていると思います。


travi さん

その通りです。 DSDという名称が一般的になってきたので、そう書くことが多くなりましたが、1bitDACではみんなデルタシグマ変調を使っています。
とは言っても、各社、工夫された回路になっていると思います。
http://www.teddigital.com/ES9008B_tech.htm
古い情報ですが、ESSのDACは6bitのデルタシグマ変調と書かれていますね。

Chordのワッツさんは、読み返してみるとコンサルタントと書いていました。 なので、正確な内部構成について述べられていないのかもしれません。Chordの技術自体は素晴らしいものだと思います。

おっしゃる通り、色々な方式があって特色のある音が聴けるというのは、ユーザの立場からすると嬉しいことですね。

shige さん

コルグのDSDレコーダですか。 なかなか良さそうですね。

DSDについて、頭から否定的な意見は書いたつもりはないのですが、CDをリッピングしたPCMデータを、わざわざPC上でデータが膨れ上がるDSDに変換して保存しておくのはナンセンスかな、とは思います。

すぐ上でも書きましたが、現在の1bitDACはその内部でデルタシグマ変調してDSDへの変換と同じようなことをしています。

ということで、PC上でのDSD化はストレージ圧迫と、再生時のデーターレート割り増し(=CPU負荷が増す)でしかない。ですね。

まあ、音の変化を楽しむという意味では、色々な変換方法があっても良いと思います。また、レコードのデジタル化に関して言えば、DSDは理想的と思います。

たかじんさん

レスありがとうございます。

>関係を数式で表せないのがもどかしいのですが、音像の表現力は時間軸も階調軸も関係するけど、依存度は時間軸の方が強いような気がしています。

当方ではCD音源をアップサンプリングして聴くのが日常化しています。
そうした方法でも、ビット深度よりもサンプリング周波数を上げるほうが変化が大きいと感じています。

22.68usを65535で割って0.35nsの時間分解能というのは、我ながら乱暴な計算だと思いますが、実際のところ、ビット深度のDA変換の正確性が、どの程度、時間分解能に影響しているんだろうと思うことがあります。
PCMの場合、横軸のサンプリング周波数の数値は一定に決まっていて、縦軸のbit深度の数値の違いによって再生波形の違いが生じるわけですから、これが正確に再現されるかどうかは時間軸の再現性にも影響するだろうと考えます。

追記された図について気になったことがあるのですが、22us周期のサンプリングでは図上の波形変化をサンプルできないのでは?ということです。
つまり波形の周波数が高すぎるように思います。22usぐらいに見えます。
11usぐらいだと、なんとかサンプル出来そうでしょうか。
11usの線を図に描き込んでみると、Aは上端、波の終端に、Bは真ん中に、Cは下端、波の起点にサンプル点が得られます。
サンプリング定理に則って理想的にアナログ波形の再現がなされたら、A、B、Cの時間差が表現されます。
AとB、BとCの時間差は11usよりも小さくなります。図上の目測で5usぐらいでしょうか。

現実のDACの時間分解能も、「1/サンプリング周波数」より短い時間になる可能性は高いと考えています。
しかし、もし縦軸を正確に再現できず数値が変動するようだったら、いくら時間軸のジッターを減らしても時間分解能が改善しないということがあるかもしれません。

flyingnoteさん

追加の図はAD取り込みの例えです。 サンプリング間隔があらいと波形を「正確に記録できない」という話です。説明が分かりにくくてすみません。

サンプリング定理の、2倍のfsがあれば表現できるというのは、その周波数を記録できる限界値であり、正確な波形を記録できるという意味合いではないと考えられます。

波形をきちんと取り込むという意味から考えると、デジタルオシロでは帯域の10倍以上のサンプリング周波数で取り込むのが一般的です。
100MHzオシロでは1.25GHzくらいのサンプリング周波数となります。私の持っているオシロも50MHz帯域ですが、サンプリング周波数は1GHzです。

オーディオに測定器レベルが求められるわけではないと思うのですが、上の図からみても20kHzまで記録するには、flyingnoteさんがおっしゃるように5usくらいのサンプリング間隔は欲しいですよね。という訳で192kHzサンプリングの録音は44.1kHzよりも再現性に優れていると言えます。


逆に、再生時を考えると、記録で欠落した時間情報(波形のタイミング情報)は、どんな手段をつかっても取り戻せません。そもそも記録データに入っていないのですから仕方ありません。このステップ波形からすると「真ん中」に似た波形で再生するしかないのです。(実際には前後にリンギングも付きます)

ソフトウェアにてアップサンプリングするのは、DAC内部や、DACの前段のデジタルフィルタの代わりを別の手段に置き換えているということで、音の変化はあると思います。 どちらが正確なのかという意味よりも、どちらの音が好きか で選択するのが良いですね。

最近のDACは、いくつかのフィルタを選択できますが、同様にアップサンプリングソフトウェアのほうも、ソフトの種類や、セッティングによって生成される波形が異なると思うので、自由に楽しむのが正解と思います。

アップサンプリング後のデータを再生するときはDAC側はNOSモードにしておくと、2重フィルタにならず、邪魔されずに再生できるかと思います。

詳しく教えていただきありがとうございました。
またお世話になることもあると思いますが、よろしくお願いいたします。

たかじんさん

>追加の図はAD取り込みの例えです。

ああ!、、よく分かっていなくてすみませんでした。

>記録で欠落した時間情報(波形のタイミング情報)は、どんな手段をつかっても取り戻せません。

そうですね。当方では、高い精度でソフトウェアアップサンプリングすることで、DACが正確に時間情報を読み出す助けになるのではないかと考えています。欠落を取り戻すというよりも、「むら」を減らせるのではないか、というイメージです。

以前、ソフトウェアで384kHzにアップサンプリングしフィルタ無しモードのDACで聴いたことがありますが、当方ではあんまり良いとは思いませんでした。そうかと思えば、異なるDACで良くなるケースもあるので、組み合わせにも依るだろうなと思っています。
言い忘れていましたが当方にはオシロなどの測定機器がないので、耳だよりです。心許ないことですが仕方ないです。

たかじんさん

ごく初心者的な質問で恐縮です。

TI社のサイトで以下のように書かれています。このような記述はかつて(トラ技?)読んだ記憶があります。

>入力が1Vに近づくと、変調器のビット・ストリームは100%の1s密度に近づきます。反対に、入力が-1Vに近づくと、ビット・ストリーム1s密度は0%に近づきます。入力が0Vの場合、1s密度は50%です。<
https://e2e.ti.com/blogs_/japan/b/analog/archive/2017/02/03/1-adc

しかし、TI社の図2で示されている正弦波とビットストリームの関係を表す図は、正弦波の変化率の大きな場所でビット密度が高くなっているようなので、記述と矛盾しているように思うのですが、どうなのでしょうか。

ちなみにONKYOのサイトでは記述のような図が提示されています。
https://www.jp.onkyo.com/audiovisual/premiumcompact/hires_portal/what_hires.htm

flyingnoteさん

DAC内部のアップサンプラー(オーバーサンプリングデジタルフィルタ)の精度を問題視する意見は度々耳にすることがあります。

確かにローコストDACでは阻止域の減衰量が-60dBどまりという製品が多数あります。

しかし、DAC-ICやデジタルフィルタ-ICを製造するメーカーは、この出来栄がICの売上を直接左右するのと、半導体チップのマスク代が数千万円に及ぶコストがかかること考えれば、高級機で手抜きをした精度の悪い演算のモノを作るとは考えにくい。というのが私の意見です。

特にフリーウェアー等のソフトウェア開発者よりは、ICメーカーの方がその威信・社運をかけて真剣に挑んでいるのではないでしょうか。かつてのバーブラウンやNPCは、会社の売上のうちDAC-ICやDF-ICが少なくない割合を占めていたと思います。MATLABでちょっと係数を出しました。というレベルではないことは簡単に想像できますね。

ということをふまえた上でですが、、ユーザーの立場からすると、結局は音の違いと好みにより自由に選択して楽しむので良いと思っています。

ソフトウェアで4倍へアップサンプリングしたあと、DAC内部のデジフィルもイネーブルして更に8倍(合計32倍)にするのもアリだと思います。

かとうさん

TIの説明もトラ技も矛盾していないと思います。図では密度が高いように見えている部分は、50:50でパルス数が多くなり、それよりも、高い部分や低い部分は、1や0に張り付いている時間が長くなるので、遠目でみると密度が低いように感じるのです。

ここの密度というのは、一定のパルス幅の1パルスが沢山あることを指しています。 また、変調はPWMではなくPDMという方式が一般的です。DSDもPDMです。 図で「1」が立て続けに出ると、遠目でみるとパルスが出ていないような錯覚になるかと思います。

onkyoのサイトのように「1」のパルスを塗りつぶすと振幅と不一致になる錯覚が起きないですね。

ちなみに、私がアップしている図は正弦波の位相が逆になっています。

たかじんさん

お返事ありがとうございます。
ただ、私にはビットが多く立っているところは図では黒い線が密になりますから黒色が濃くなり、少ないところは白くなるものと思います。

0点では密度が50%でそれより下に行くと密度が小さくなると思います。そのような説明がTIの文書でされていると思うんです。

オンキョーの図が間違っているということでしょうか?

たびたびすみません。これでおしまいにします。
お時間を取っていただき、ありがとうございました。

かとうさん

この図では縦線が強調されるので錯覚してしまうのだと思います。また、PDM(パルス密度変調)がミソです。

TIのいう密度というのは「1」のパルスの多さのことだと思います。連続して「1」が出ているのが密度が高い状態。しかし、1が連続すると0へ落ちてこないため、縦線が見えずスカスカの図になります。

例えば、2.8MHzのDSDで1秒間に2.8M個の1があれば、アナログ信号は+側を表現しますが、縦線がなく「1」側に張り付いていてスカスカの図になります。

逆に1秒間に1個もパルスがなければ、アナログ信号は-側の値を表現します。同様に「0」に張り付いていて縦線がないので密度は低く見えますね。

ここまで書くと想像できると思いますが、センター値の1.4M個のパルスがあるとき、交互に「1」「0」を繰り返し、縦線が一番多くなります。

ONKYOの図は1を塗りつぶしているので、密度が高い=+側、密度が低い=-側に見えると思います。が、簡略しすぎていてパルスがまばらで分かりにくくなっていますね。

PDMの詳細につていはwikipediaを見ると良いと思います。
http://ja.wikipedia.org/wiki/%E3%83%91%E3%83%AB%E3%82%B9%E5%AF%86%E5%BA%A6%E5%A4%89%E8%AA%BF

たかじんさん

お返事、ありがとうございました。

せっかく教えていただいたのに、Wikiの数式を見ても良く分かりませんでした。

Wikiには2枚の図がありますが、実用にあたっては最初の図のようにサンプリングして、記録する際にΔσ変調の図のように記録するということなんでしょうか。あるいは最初の図のようにサンプリング・記録し、DACで再生する際にΔσ変換のようにするということなんでしょうか。

私は最初の図のようにサンプリングと記録をして、そのまま再生しているものと思っていましたが、なにか違うようですね。

この時点でこだわっていても仕方ないと思いますので、この後は自分で調べてみたいと思います。

お付き合いありがとうございました。

コメントを書く

(ウェブ上には掲載しません)

トラックバック

この記事のトラックバックURL:
http://app.cocolog-nifty.com/t/trackback/587107/67435683

この記事へのトラックバック一覧です: 時間分解能で比較してみるPCMとDSD 楽器までの距離との関係:

« Philewebのラズパイ・オーディオ通信(52)にて | トップページ | 新DAC基板のプログラム ほぼ完成。 »

サイト内検索

Sponsors link

2018年12月
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31          
無料ブログはココログ