フォーラムへの返信
-
投稿者投稿
-
Masahiko Niwa/丹羽雅彦キーマスター
回答をありがとうございます。解決してよかったです!!
Masahiko Niwa/丹羽雅彦キーマスターtakahiro9930さん、
こんにちは。PCCのグラフからエラーを読み取ることはできず「そういうものか」とみる程度です。グラフ上の直線に乗っていると嬉しいというのもありますが、それほど深い意味はないと思います。
PCCはカラーカリブレーションの処理の一種です。カラーカリブレーションの基本は「何を白色として判定するか」というホワイトリファレンス(白の基準)を決めることで、PCCは次のプロセスでホワイトバランスを決めます。
(1) 撮影した星の色指数を測定
(2) APASSデータベースに登録された色指数を取得
(3) (1)と(2)の相関を確認 ←これがグラフです
(4) 相関に基づき撮影データのホワイトリファレンスを決定つまりPCCはたくさんの星を測定して大袈裟ですが、やっていることは「何を白とするか」というホワイトリファレンスを決めているだけです。
ホワイトリファレンスは地球で撮影された映像ならば太陽光を用います。「太陽の光は白」とみなすわけです。しかし天体写真では太陽光が存在しないので銀河を白とみなすことが多いです。(4)はAPASSデータベースの平均的な銀河の色指数を、撮影した画像の色指数に変換することで、撮影した画像のホワイトバランスを決定します。
カラーバランスは何が正しいか判定するのは、とても難しくて私も悩んでいます。M4が最初赤っぽいと考えたのは、AstrobinやAPODの画像を大量にみて、「もっと黄色いのが良いのかな」と判断しました。
もしご興味があればこちらもご覧ください。
https://masahiko.me/pixinsight-pcc/PCCはややこしくて疑問はたくさん残ると思うので、遠慮なくご質問ください。
Masahiko Niwa/丹羽雅彦キーマスター最近はじめたこととして、ノンリニア工程でもSTFを多用しています。ストレッチをあまりしない暗い状態でノンリニアの処理をしているので、STFで明るくしてみています。
それもお試しください!
Masahiko Niwa/丹羽雅彦キーマスターはい、どしどしご質問ください!
Masahiko Niwa/丹羽雅彦キーマスター先生は恥ずかしいですが、参考になれば!
また星沼会メンバーとこの件について議論しました。考え方によっては「フィルター越しだが、センサーに写った画像をそのまま評価する」という意味でDebayer前の方が正しいとも言えます。Debayerは画像を補完してしまいます。
結局、同じ条件の比較ならば、Debayerの前、後どちらでも良さそうです。米倉さんの検証でも値は異なるが、傾向は同じということでしたよね。そのコメントはとても参考になりました。こちらこそありがとうございました。
Masahiko Niwa/丹羽雅彦キーマスターサイトの不具合があるようで、ご質問が非表示になっていました。返信が遅くなりました。
>私ばかり質問しているようで大変恐縮ですが、また教えて頂ければと思います。
どしどし質問ください!
ArchsinhStretchは彩度が高くなりますが、ちょっと劇薬な感じもしています。私がArchsinhStretchを使うときは、最初に軽くだけArchsinhStretch使いそれほど明るくしないレベルでとどめています。そのあとにHistogramTransformationで輝度を調整します。HistogramTransformationの輝度の調整も最初は暗めのまま他の処理をすすめます。処理の終盤の仕上げの段階になって初めて輝度を高めています。そちらの方が飽和のリスクが低く、調整幅が大きいと思うためです。
CurvesTransformationとの使い分けに関してですが、ArchsinhStretchは軽くだけかけ、彩度の調整は主にCurvesTransformationを使っています。
Masahiko Niwa/丹羽雅彦キーマスター米倉さん、こんにちは。最初に質問をいただいてから返信が遅くなり申し訳ありません。
Debayer前のCFA画像をSubframe Selectorで評価した場合とDebayer後の画像では、値は異なるので良いと思います。Debayer前は一つのファイルにRGBのデータが混在しています。そのためたとえばEccentricityでもDebayer後はRGB画像別に星の形が評価されますが、Debayer前ですとおそらく平均的な星で評価されるはずです(これは予想です)。
画像の比較であれば、Debayer前の画像で実施しても条件は同じなので問題ないとも思いますが、PixInsightのフォーラムでは「Debayer後の画像で比較すべし」とのコメントもありました。また多くのチュートリアルでもDebayer後の画像でSubframe Selectorをかけるプロセスになっています。Debayer後あればまちがないので、Debayer後で、できればCalibration済みのファイルをSubframe Selectorで確認することをおすすめします。
追加の質問があれば、お気軽にご連絡ください!
Masahiko Niwa/丹羽雅彦キーマスターAlricha33さん、こんにちは。
おお!渋いところのご質問ですね。こういうネタはブログにあまり書かないので質問コーナーを作ってよかったと思いました!
通常の利用ではUse RGB working spaceはオフのままでOKです。そうするとデフォルトでRGBの割合が1:1:1に設定されます。
RGBWorking Spaceの概念を説明しますね。すべての画像はRGB Working Spaceという値を持っています。これは画像の見た目には変わりがないですが、内部の画像処理でL画像を算出するときにRGBの割合をどれくらいにするか設定します。
人間の目はGreenに反応が良いので一眼カメラの画像ではRGBがGに重く設定されています。しかし太陽光のもとで撮影するわけではない天体写真では、通常RGBの比率は1:1:1にします。そのためにはRGBWorkingSpace処理で1:1:1を設定しておきます。そうするとL画像が作られるときにRGB比率は1:1:1になります。
今回のArcsinhStretchはRGBWorking Spaceをオフにしておくとデフォルトで1:1:1が設定されますので上記の処理は不要です。HαやOIIIを強調したいときなどに、あえてRGB Working Spaceを1:1:1にしない場合に、これをオンにして別の値を設定することがあります。
ちょっと細かい内容なので、ご不明な点があればお気軽に追加質問ください!
Masahiko Niwa/丹羽雅彦キーマスターどんなエラーがでましたか? コンソールにエラーメッセージが出ていれば何かわかると思います!
Masahiko Niwa/丹羽雅彦キーマスターmaverickさん、
先生だなんてそんなあ(もっと言ってくださいww)
masterを残し、それ以外はすぐに消しても大丈夫です。私は画像処理中に変なことがおきたときにチェックするために、画像処理をしているときは残しておき、終わったらmaster以外を消します。でも最初に消してしまって問題ないです。
- calibrated… flat, darkなどの処理をしたサブフレーム(1コマごとの画像)
- registered… star alignmentによって位置あわせしたサブフレーム
- logs.. ログファイル
- master… Image Integrationしたスタックデータ
画像処理には、masterLightだけを使います。
またmasterDark, masterFlat, masterBiasはダーク、フラット、バイアスのスタック済みデータです。すでにmasterLightには適用済みなので、消しても大丈夫です。しかしmasterBiasは温度があえば、またmasterDarkは温度と露光時間があえば次回に使い回しできますので、取っておいた方が良いと思います。次回のWBPPをするときに個々の大量のバイアスやダークを登録する代わりにこれらのスタック済みデータを登録すれば使えます。
フラットはゴミの位置が動いているなど心配はありますが、気にしなければ使いまわすこともできます。
まだ疑問点があれば、お気軽に!
- この返信は2年、 9ヶ月前にMasahiko Niwa/丹羽雅彦が編集しました。
Masahiko Niwa/丹羽雅彦キーマスターゲインについてはリードノイズの視点からはそうだと思います。ただゲインを上げるとフルウェルキャパシティが下がるので飽和しやすくなるという課題もあり、リードノイズには不利でもゲインをあえて0で使っていらっしゃる方もいます。実験的に決めるしかないのかな、とも思います。
私のASI294MM Proに関していうとメーカーのホームページを見るとわかるように、ゲインが120でリードノイズがガクンと下がります。これはセンサーが持つ機能で120からHCG(High Conversion Gain)モードというリードノイズが少ないモードに切り替わります。そのため私はゲイン120で使用しています。
https://astronomy-imaging-camera.com/product/asi294mm-pro
Masahiko Niwa/丹羽雅彦キーマスター位置あわせの問題だったのですね。解決されてよかったです!
404 not foundとなるのはブログの設定ミスでした。ご迷惑をおかけしました。修正しました。
Masahiko Niwa/丹羽雅彦キーマスターリードノイズはDarkを引いても逆に加算されてしまうのです。
私は長焦点の鏡筒を使ったことはなく広角で明るめの光学系なのですが、焦点距離の長いF12くらいになると暗くなるのでリードノイズの影響を受けて一コマずつの露光時間が必要になるのかもしれないですね。
色の出方は総露光時間との相関があることは実感しています。光学系によっては一コマの時間も関係しそうです。
ちなみにRGBごとの差分が大きいほど、色が濃くなるのでSN比が高い画像ほど色が濃く、SN比が低いとグレーになって行きます。
もし今後の撮影で新しいことがお分かりになりましたら、お教えください!
Masahiko Niwa/丹羽雅彦キーマスター盛り上げてくださってありがとうございます〜。
可能性としてはリードノイズの存在があります。
ショットノイズなど多くのノイズは枚数および時間によって√Nで増えていきます。Nは総露光量です。しかし輝度はN 倍にふえるので、輝度をそろえると1/√Nにノイズは減ります。これが総露光量が同じならノイズレベルは一緒ということです。
一方でリードノイズは露光時間に関係なく一定です。リードノイズとは読み出し時のばらつきにより発生するノイズのため、露光時間が多くても少なくても、一定量になります。
そうすると総露光量が同じでも30秒の方が読み出し回数が多い分、リードノイズを多く含むことになります。たとえば30秒100枚と600秒5枚では、スタックして輝度をそろえると30秒の方が√20だけリードノイズを余分に含みます。
300秒、600秒の検証ではバックグラウンドに対するリードノイズは1-2%でしたのでほとんど影響ありませんでしたが、30秒と600秒のように大きく変わってくると、センサーによってはリードノイズの影響が出てくるのかと思います。
Masahiko Niwa/丹羽雅彦キーマスターDoiMaachさん、
Calibrationのフローは私もよく混乱します。ややこしいですよね。ちなみに露光時間が異なりOptimize Darkのオプションをつけたときは、Biasが必要になるのでお気をつけください。
「画像処理用PCのスペックなどについて」のトピックスの件、ご連絡ありがとうございます。表示しました。昨日から一部表示されないスレッドがある不具合に困っていたのですが、理由がわかった気がします。早めに修正しておきます!
-
投稿者投稿