フォーラムへの返信
-
投稿者投稿
-
Masahiko Niwa/丹羽雅彦キーマスター
サイトの不具合があるようで、ご質問が非表示になっていました。返信が遅くなりました。
>私ばかり質問しているようで大変恐縮ですが、また教えて頂ければと思います。
どしどし質問ください!
ArchsinhStretchは彩度が高くなりますが、ちょっと劇薬な感じもしています。私がArchsinhStretchを使うときは、最初に軽くだけArchsinhStretch使いそれほど明るくしないレベルでとどめています。そのあとにHistogramTransformationで輝度を調整します。HistogramTransformationの輝度の調整も最初は暗めのまま他の処理をすすめます。処理の終盤の仕上げの段階になって初めて輝度を高めています。そちらの方が飽和のリスクが低く、調整幅が大きいと思うためです。
CurvesTransformationとの使い分けに関してですが、ArchsinhStretchは軽くだけかけ、彩度の調整は主にCurvesTransformationを使っています。
Masahiko Niwa/丹羽雅彦キーマスター米倉さん、こんにちは。最初に質問をいただいてから返信が遅くなり申し訳ありません。
Debayer前のCFA画像をSubframe Selectorで評価した場合とDebayer後の画像では、値は異なるので良いと思います。Debayer前は一つのファイルにRGBのデータが混在しています。そのためたとえばEccentricityでもDebayer後はRGB画像別に星の形が評価されますが、Debayer前ですとおそらく平均的な星で評価されるはずです(これは予想です)。
画像の比較であれば、Debayer前の画像で実施しても条件は同じなので問題ないとも思いますが、PixInsightのフォーラムでは「Debayer後の画像で比較すべし」とのコメントもありました。また多くのチュートリアルでもDebayer後の画像でSubframe Selectorをかけるプロセスになっています。Debayer後あればまちがないので、Debayer後で、できればCalibration済みのファイルをSubframe Selectorで確認することをおすすめします。
追加の質問があれば、お気軽にご連絡ください!
Masahiko Niwa/丹羽雅彦キーマスターAlricha33さん、こんにちは。
おお!渋いところのご質問ですね。こういうネタはブログにあまり書かないので質問コーナーを作ってよかったと思いました!
通常の利用ではUse RGB working spaceはオフのままでOKです。そうするとデフォルトでRGBの割合が1:1:1に設定されます。
RGBWorking Spaceの概念を説明しますね。すべての画像はRGB Working Spaceという値を持っています。これは画像の見た目には変わりがないですが、内部の画像処理でL画像を算出するときにRGBの割合をどれくらいにするか設定します。
人間の目はGreenに反応が良いので一眼カメラの画像ではRGBがGに重く設定されています。しかし太陽光のもとで撮影するわけではない天体写真では、通常RGBの比率は1:1:1にします。そのためにはRGBWorkingSpace処理で1:1:1を設定しておきます。そうするとL画像が作られるときにRGB比率は1:1:1になります。
今回のArcsinhStretchはRGBWorking Spaceをオフにしておくとデフォルトで1:1:1が設定されますので上記の処理は不要です。HαやOIIIを強調したいときなどに、あえてRGB Working Spaceを1:1:1にしない場合に、これをオンにして別の値を設定することがあります。
ちょっと細かい内容なので、ご不明な点があればお気軽に追加質問ください!
Masahiko Niwa/丹羽雅彦キーマスターどんなエラーがでましたか? コンソールにエラーメッセージが出ていれば何かわかると思います!
Masahiko Niwa/丹羽雅彦キーマスターmaverickさん、
先生だなんてそんなあ(もっと言ってくださいww)
masterを残し、それ以外はすぐに消しても大丈夫です。私は画像処理中に変なことがおきたときにチェックするために、画像処理をしているときは残しておき、終わったらmaster以外を消します。でも最初に消してしまって問題ないです。
- calibrated… flat, darkなどの処理をしたサブフレーム(1コマごとの画像)
- registered… star alignmentによって位置あわせしたサブフレーム
- logs.. ログファイル
- master… Image Integrationしたスタックデータ
画像処理には、masterLightだけを使います。
またmasterDark, masterFlat, masterBiasはダーク、フラット、バイアスのスタック済みデータです。すでにmasterLightには適用済みなので、消しても大丈夫です。しかしmasterBiasは温度があえば、またmasterDarkは温度と露光時間があえば次回に使い回しできますので、取っておいた方が良いと思います。次回のWBPPをするときに個々の大量のバイアスやダークを登録する代わりにこれらのスタック済みデータを登録すれば使えます。
フラットはゴミの位置が動いているなど心配はありますが、気にしなければ使いまわすこともできます。
まだ疑問点があれば、お気軽に!
- この返信は2年、 11ヶ月前にMasahiko Niwa/丹羽雅彦が編集しました。
Masahiko Niwa/丹羽雅彦キーマスターゲインについてはリードノイズの視点からはそうだと思います。ただゲインを上げるとフルウェルキャパシティが下がるので飽和しやすくなるという課題もあり、リードノイズには不利でもゲインをあえて0で使っていらっしゃる方もいます。実験的に決めるしかないのかな、とも思います。
私のASI294MM Proに関していうとメーカーのホームページを見るとわかるように、ゲインが120でリードノイズがガクンと下がります。これはセンサーが持つ機能で120からHCG(High Conversion Gain)モードというリードノイズが少ないモードに切り替わります。そのため私はゲイン120で使用しています。
https://astronomy-imaging-camera.com/product/asi294mm-pro
Masahiko Niwa/丹羽雅彦キーマスター位置あわせの問題だったのですね。解決されてよかったです!
404 not foundとなるのはブログの設定ミスでした。ご迷惑をおかけしました。修正しました。
Masahiko Niwa/丹羽雅彦キーマスターリードノイズはDarkを引いても逆に加算されてしまうのです。
私は長焦点の鏡筒を使ったことはなく広角で明るめの光学系なのですが、焦点距離の長いF12くらいになると暗くなるのでリードノイズの影響を受けて一コマずつの露光時間が必要になるのかもしれないですね。
色の出方は総露光時間との相関があることは実感しています。光学系によっては一コマの時間も関係しそうです。
ちなみにRGBごとの差分が大きいほど、色が濃くなるのでSN比が高い画像ほど色が濃く、SN比が低いとグレーになって行きます。
もし今後の撮影で新しいことがお分かりになりましたら、お教えください!
Masahiko Niwa/丹羽雅彦キーマスター盛り上げてくださってありがとうございます〜。
可能性としてはリードノイズの存在があります。
ショットノイズなど多くのノイズは枚数および時間によって√Nで増えていきます。Nは総露光量です。しかし輝度はN 倍にふえるので、輝度をそろえると1/√Nにノイズは減ります。これが総露光量が同じならノイズレベルは一緒ということです。
一方でリードノイズは露光時間に関係なく一定です。リードノイズとは読み出し時のばらつきにより発生するノイズのため、露光時間が多くても少なくても、一定量になります。
そうすると総露光量が同じでも30秒の方が読み出し回数が多い分、リードノイズを多く含むことになります。たとえば30秒100枚と600秒5枚では、スタックして輝度をそろえると30秒の方が√20だけリードノイズを余分に含みます。
300秒、600秒の検証ではバックグラウンドに対するリードノイズは1-2%でしたのでほとんど影響ありませんでしたが、30秒と600秒のように大きく変わってくると、センサーによってはリードノイズの影響が出てくるのかと思います。
Masahiko Niwa/丹羽雅彦キーマスターDoiMaachさん、
Calibrationのフローは私もよく混乱します。ややこしいですよね。ちなみに露光時間が異なりOptimize Darkのオプションをつけたときは、Biasが必要になるのでお気をつけください。
「画像処理用PCのスペックなどについて」のトピックスの件、ご連絡ありがとうございます。表示しました。昨日から一部表示されないスレッドがある不具合に困っていたのですが、理由がわかった気がします。早めに修正しておきます!
Masahiko Niwa/丹羽雅彦キーマスターDoiMaachさん
ご丁寧にありがとうございます。私がWindowsマシンに詳しくないので、大変助かります!Masahiko Niwa/丹羽雅彦キーマスターDoiMaachさん、
質問コーナーを活用してくださって嬉しいです。ありがとうございます。Light, Dark, Flat, Biasはすべてゲインは揃える必要があります。回路の読み込み時に発生するリードノイズは全てのファイルに含まれます。このリードノイズはゲインによって変化します。ZWOのホームページからリードノイズとゲインの関係のグラフを転載します。
https://astronomy-imaging-camera.com/product/asi294mm-pro
ここにあるように、横軸のゲインによって縦軸のリードノイズの値が異なります。そのため、ゲインが異なると正しく、バイアスが引けなくなります。
ところで私は最近はバイアスを使用していません。WBPPダークとライトの露光時間が一致した場合はバイアスを使用しないようになっています(以前はバイアス使用していましたが、WBPP2.1か2.2で変わったように思います)。ダークとライトの露光量が一致した場合はライトからダークがそのまま引かれます。このときダークとライトの両方にバイアスが含まれているため、ライトからダークを引くと、自然にバイアスも引かれるためです。フラットも同様です。
これはWBPPの画面ですが、Biasを登録していますが、ライトでBaisがXとなって使用していないことがわかります。
ダイアグラムを見ても、バイアスは使われていません。
これはライトとダークがともに300秒の露光で一致していて、そのまま引き算するのでバイアスも一緒に引かれるためです。
追加質問があればお気軽にご連絡ください。それから新しい質問も大歓迎です!私も勉強になります!!
Masahiko Niwa/丹羽雅彦キーマスターもう一人の星沼会の友人からもコメントがありました。
静止画の画像処理ならば、CPU>メモリ>>GPUの順にお金をかけるのが良いそうです。動画処理をするならばある程度良いGPUが必要ですが、静止画であればそうでもないとのこと。その方は3700X+48GB RAM+GTX1050Tiという構成で、静止画の画像処理は無理なくできているとのこと。
これから最新のCPUの機種を買われるのであれば、CPUは最新世代のi7以上かAMDなら5700以上、RAMは最低でも32 GB、可能であれば64 GBほしいそうです。32GBと64GBでは速度がかなり変わるようです。
Masahiko Niwa/丹羽雅彦キーマスターPixInsightでいうとやはりStarNetが重い処理なので、StarNetが動く環境について星沼会のメンバーに聞いてみました。
StarNetのv1ですとGeForce系があるとよいそうです。Quadroである必要はないとのこと。StarNet v2であればCPU処理だけで十分で非力な8700Tでも快適だそうです。
また他のメンバーはStarNetをGPUで動作させておらず、i7 10700kのメモリ32gbでもかなり快適とのことです。
追加質問があれば、お気軽にください。また聞きますね。
Masahiko Niwa/丹羽雅彦キーマスターPixInsightでいうとやはりStarNetが重い処理なので、StarNetが動く環境について星沼会のメンバーに聞いてみました。
StarNetのv1ですとGeForce系があるとよいそうです。Quadroである必要はないとのこと。StarNet v2であればCPU処理だけで十分で非力な8700Tでも快適だそうです。
また他のメンバーはStarNetをGPUで動作させておらず、i7 10700kのメモリ32gbでもかなり快適とのことです。
追加質問があれば、お気軽にください。また聞きますね。
-
投稿者投稿