الفلك

كيف يمكن تقدير عدم اليقين في قياسات العروض المكافئة؟

كيف يمكن تقدير عدم اليقين في قياسات العروض المكافئة؟



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

أقوم بقياس عرض مكافئ لخطوط الامتصاص باستخدام طيف نجم. أقوم بإجراء قياسين أو ثلاثة قياسات لكل سطر عن طريق إجراء مقاسات غاوسية معقولة للخط باستخدام أداة لصق IRAF. ثم أحسب متوسط ​​القياسات ، والذي يعمل كتقدير نهائي مكافئ للعرض.

ما هي الطريقة الجيدة لتقدير الارتياب في هذا القياس؟

طريقتي الحالية

أستخدم حاليًا نصف النطاق لعدم اليقين. على سبيل المثال ، إذا أجريت قياسين 10 و 16 مللي أمبير (مليانستروم) ، فإن المتوسط ​​هو 13 مللي أمبير وعدم اليقين هو 3 مللي أمبير. هذا يعطي تقدير العرض المكافئ ليكون 13 ± 3 مللي أمبير. هل ترى أي مشاكل في طريقة تقدير عدم اليقين هذه؟


نعم هناك مشكلة. يبدو أنك تحاول استنباط عدم يقين في قياس الحرب الإلكترونية عن طريق إجراء قياسات متكررة لـ نفس البيانات؟

يمكن أن يمنحك هذا فقط عدم اليقين المرتبط بتقنية القياس الخاصة بك (أي حيث تحدد حدود الخط وكيف تحدد مستوى الاستمرارية) - الخطأ المنهجي الذي قد تسميه (على الرغم من إمكانية وجود أخطاء منهجية أخرى ملازمة لقياسات الحرب الإلكترونية ، مثل ما إذا كنت قد طرحت السماء أو نثر الضوء في مخطط الطيف بشكل صحيح على سبيل المثال).

ما لا يفعله هو تقييم عدم اليقين في الحرب الإلكترونية الناجم عن جودة أو نسبة الإشارة إلى الضوضاء في البيانات نفسها. يمكنك تقييم ذلك باستخدام بعض صيغ القواعد العامة لخط غاوسي ، على سبيل المثال $$ Delta EW simeq 1.5 frac { sqrt {fp}} {{ rm SNR}} ، $$ (eqn 6 of Cayrel de Strobel 1988) حيث $ و $ هل FWHM للخط الطيفي (بوحدات الطول الموجي) ، $ p $ هو حجم بكسل واحد في وحدات الطول الموجي و SNR هو نسبة الإشارة إلى الضوضاء للبيانات في بكسل متوسط. أو يمكنك أخذ طيف اصطناعي وإضافة بعض الضوضاء الاصطناعية إليه بالخصائص المناسبة وقياس الحرب الإلكترونية للعديد من العشوائيات من نفس الطيف ، مع أخذ الانحراف المعياري لقياسات الحرب الإلكترونية للإشارة إلى عدم اليقين في الحرب الإلكترونية لمستوى معين من الإشارة- نسبة الضوضاء.

إذا لم يكن عدم اليقين الإحصائي هذا ضئيلًا ، فحينئذٍ ستحتاج إلى إضافته إلى أي شكوك منهجية مرتبطة بتحليلك للطيف. بقدر ما يتعلق الأمر بالأخير ، فإن طريقتك المقترحة تعطي بعض المؤشرات على ماهية هذا الخطأ ، على الرغم من أنني أظن أنها ستبالغ في تقدير 1 سيغما عدم اليقين.


تقدير عدم اليقين ... الأكثر تفضيلاً هو Bayesian. ومع ذلك ، إذا اتبعت المتكرر ، فإن MCMC هو الأكثر تفضيلًا ، وسيكون مشابهًا إلى حد ما لما اقترحه مرشدك باستخدام خوارزمية أكثر تعقيدًا. ستكون أبسط طريقة هي ما اقترحه مرشدك ، ولكن يمكنك قياس حجم عينة أكبر واستخدام إحصائيات بسيطة مثل الخطأ المتوسط ​​والخطأ القياسي.

هناك العديد من الاختلافات على طول هذه الأسطر التي لن أقوم بإعداد قائمة هنا.


عمر الجسيمات من مبدأ عدم اليقين

يقترح أنه بالنسبة للجسيمات ذات الأعمار القصيرة للغاية ، سيكون هناك عدم يقين كبير في الطاقة المقاسة. يعطي قياس الطاقة الكتلية لجسيم غير مستقر عددًا كبيرًا من المرات توزيعًا للطاقات يسمى توزيع لورنتزيان أو برييت-فينر.

إذا تم تسمية عرض هذا التوزيع بنصف الحد الأقصى بعلامة & # 915 ، فيمكن التعبير عن عدم اليقين في الطاقة & # 916E بشكل معقول على النحو التالي

حيث يتم أخذ عمر الجسيم & # 964 على أنه عدم اليقين في الوقت & # 964 = & # 916t.

في تجارب تشتت الطاقة العالية ، يمكن تحديد عدم اليقين في الطاقة & # 916E والعمر الضمني منه. في حالات أخرى ، يتم قياس العمر بشكل أكثر ملاءمة ويكون "عرض الجسيم" في الطاقة متضمنًا من قياس العمر.

& # 915 غالبًا ما يُشار إليه باسم "عرض الخط الطبيعي". إنه ذو أهمية كبيرة في فيزياء معجلات الطاقة العالية حيث يوفر وسائل لتحديد الأعمار القصيرة للغاية للجسيمات المنتجة. بالنسبة إلى التحليل الطيفي البصري ، يعد هذا عاملًا ثانويًا لأن عرض الخط الطبيعي عادة ما يكون 10-7 فولت ، أي حوالي عُشر زيادة دوبلر. مصدر آخر لعرض الخط هو ارتداد المصدر ، لكن هذا لا يكاد يذكر في النطاق البصري.

بالنسبة للتحولات النووية التي تتضمن انبعاث جاما في نطاق 0.1-1 MeV ، يكون عرض الارتداد عادةً أكبر بكثير من عرض الخط الطبيعي. يشير ارتداد النواة المنبعثة إلى أن فوتون جاما المنبعث لا يمكن أن تمتصه نواة متطابقة لأن طاقتها تنخفض بمقدار أكبر من عرض الخط الطبيعي لمستويات الامتصاص المحتملة. اكتشف موسباور أن الامتصاص يمكن تحقيقه عن طريق وضع المصدر على ذراع دوارة لمنحه سرعة كافية للتعويض عن تأثير الارتداد. أصبح تأثير Mossbauer أداة تجريبية مفيدة عندما تم اكتشاف أنه يمكن قمع الارتداد عن طريق وضع النواة المنبعثة في شبكة بلورية. ثم أظهرت جاما المنبعثة شيئًا قريبًا من عرض الخط الطبيعي ويمكن أن تمتصه نوى متطابقة أخرى.


كيف يمكن تقدير عدم اليقين في قياسات العروض المكافئة؟ - الفلك

تقييم مكونات عدم اليقين: النوع ب

  • بيانات القياس السابقة ،
  • الخبرة أو المعرفة العامة بسلوك وممتلكات المواد والأدوات ذات الصلة ،
  • مواصفات الشركة المصنعة ،
  • البيانات المقدمة في المعايرة والتقارير الأخرى ، و
  • أوجه عدم اليقين المخصصة للبيانات المرجعية المأخوذة من الكتيبات.

فيما يلي بعض الأمثلة على تقييمات النوع B في مواقف مختلفة ، اعتمادًا على المعلومات المتاحة وافتراضات المجرب. بشكل عام ، يتم الحصول على عدم اليقين إما من مصدر خارجي ، أو يتم الحصول عليه من توزيع مفترض.

تم الحصول على عدم اليقين من مصدر خارجي

مضاعف الانحراف المعياري

الإجراء: تحويل عدم اليقين المقتبس في كتيب ، ومواصفات الشركة المصنعة ، وشهادة المعايرة ، وما إلى ذلك ، وهو مضاعف محدد للانحراف المعياري المقدر إلى عدم يقين قياسي عن طريق قسمة الارتياب المقتبس على المضاعف.

تم الحصول على عدم اليقين من توزيع مفترض

التوزيع الطبيعي: & quot1 من 2 & quot

الإجراء: نمذجة كمية المدخلات المعنية من خلال توزيع احتمالي عادي وتقدير الحدود الدنيا والعليا a - و a + بحيث تكون أفضل قيمة مقدرة لكمية المدخلات (a + + a -) / 2 (أي مركز الحدود) وهناك فرصة واحدة من 2 (أي احتمال 50٪) أن قيمة الكمية تقع في الفترة من أ - إلى أ +. ثم u j تساوي 1.48 a تقريبًا ، حيث a هي نصف عرض الفترة.

التوزيع الطبيعي: & quot2 من 3 & quot

الإجراء: نمذجة كمية المدخلات المعنية من خلال توزيع احتمالي عادي وتقدير الحدود الدنيا والعليا a - و a + بحيث تكون أفضل قيمة مقدرة لكمية المدخلات (a + + a -) / 2 (أي مركز الحدود) وهناك احتمالان من أصل 3 (أي احتمال بنسبة 67٪) أن تكون قيمة الكمية تقع في الفترة من أ - إلى أ +. ثم u j تقريبًا ، حيث نصف عرض الفترة.

الإجراء: إذا تم نمذجة الكمية المعنية بواسطة توزيع احتمالي عادي ، فلا توجد حدود محدودة تحتوي على 100٪ من قيمها المحتملة. ومع ذلك ، زائد وناقص 3 انحرافات معيارية حول متوسط ​​التوزيع الطبيعي تقابل حدود 99.73٪. وبالتالي ، إذا تم اعتبار الحدود a - و a + للكمية الموزعة بشكل طبيعي بمتوسط ​​(a + a -) / 2 تحتوي على & quotal جميع & quot من القيم المحتملة للكمية ، أي ما يقرب من 99.73٪ منها ، إذن uj تقريبًا / 3 ، حيث يمثل نصف عرض الفترة الزمنية.

التوزيع المنتظم (المستطيل)

الإجراء: تقدير الحدين الأدنى والعليا a - و a + لقيمة كمية الإدخال المعنية بحيث يكون احتمال تكمن القيمة في الفاصل الزمني ، لجميع الأغراض العملية ، 100٪. بشرط عدم وجود معلومات متناقضة ، تعامل مع الكمية كما لو كان من المحتمل بشكل متساوٍ أن تقع قيمتها في أي مكان داخل الفاصل الزمني ، ونمذجتها من خلال توزيع احتمالي موحد (أي مستطيل). ثم يتم تقسيم أفضل تقدير لقيمة الكمية على الجذر التربيعي للرقم 3 ، حيث يكون نصف عرض الفترة الزمنية.

التوزيع المستطيل هو نموذج افتراضي معقول في غياب أي معلومات أخرى. ولكن إذا كان معروفًا أن قيم الكمية المعنية بالقرب من مركز الحدود تكون أكثر احتمالية من القيم القريبة من الحدود ، فقد يكون التوزيع الطبيعي أو التوزيع المثلثي ، للبساطة ، نموذجًا أفضل.

الإجراء: تقدير الحدين الأدنى والعليا a - و a + لقيمة كمية الإدخال المعنية بحيث يكون احتمال تكمن القيمة في الفترة a - إلى a + ، لجميع الأغراض العملية ، 100٪. شريطة عدم وجود معلومات متناقضة ، قم بنمذجة الكمية بتوزيع احتمالي ثلاثي. أفضل تقدير لقيمة الكمية هو (a + a -) / 2 مع u j = مقسومًا على الجذر التربيعي لـ 6 ، حيث يكون نصف عرض الفترة.

توضيح تخطيطي للتوزيعات الاحتمالية
يوضح الشكل التالي بشكل تخطيطي التوزيعات الثلاثة الموضحة أعلاه: عادي ، مستطيل ، ومثلث. في الأشكال ، & micro t هو توقع أو متوسط ​​التوزيع ، وتمثل المناطق المظللة & # 177 عدم يقين قياسي واحد ش حول المتوسط. من أجل u العادي يشمل حول التوزيع لتوزيع منتظم ، & # 177 u يشمل حوالي التوزيع وللتوزيع الثلاثي ، & # 177 u يشمل حوالي 65٪ من التوزيع.


7.2 مبدأ عدم اليقين لهايزنبرغ

مبدأ عدم اليقين لهايزنبرغ هو مبدأ أساسي في ميكانيكا الكم. تقريبًا ، ينص على أنه إذا علمنا كل شىء حول مكان وجود الجسيم (عدم اليقين في الموضع صغير) ، نعلم لا شيئ حول زخمها (عدم اليقين في الزخم كبير) والعكس صحيح. توجد أيضًا إصدارات من مبدأ عدم اليقين للكميات الأخرى أيضًا ، مثل الطاقة والوقت. نناقش مبدأ الزخم-الموقف ومبادئ عدم اليقين في وقت الطاقة بشكل منفصل.

الزخم والموقف

لتوضيح مبدأ عدم اليقين في موضع الزخم ، فكر في جسيم حر يتحرك على طول x-اتجاه. يتحرك الجسيم بسرعة ثابتة ش والزخم ص = م ش ع = م ش. وفقًا لعلاقات دي بروجلي ، p = ℏ k p = ℏ k و E = ℏ ω E = ℏ ω. كما تمت مناقشته في القسم السابق ، يتم إعطاء دالة الموجة لهذا الجسيم بواسطة

يمكن إصدار عبارات مماثلة من الجسيمات الموضعية. في نظرية الكم ، يتم نمذجة الجسيم المحلي من خلال تراكب خطي لحالات الجسيمات الحرة (أو الموجة المستوية) تسمى حزمة الموجة. يظهر مثال على حزمة موجة في الشكل 7.9. تحتوي الحزمة الموجية على العديد من الأطوال الموجية وبالتالي من خلال علاقات دي برولي العديد من العزم — ممكن في ميكانيكا الكم! يحتوي هذا الجسيم أيضًا على العديد من قيم الموضع ، على الرغم من أن الجسيم يقتصر في الغالب على الفترة x Δ x. يمكن أن يكون الجسيم موضعيًا بشكل أفضل (Δ x (Δ x يمكن تقليله) إذا تمت إضافة المزيد من حالات الموجة المستوية ذات الأطوال الموجية أو العزم المختلفة معًا بالطريقة الصحيحة (Δ p (Δ p تزداد). وفقًا لهايزنبرغ ، هذه الشكوك طاعة العلاقة التالية.

مبدأ عدم اليقين Heisenberg

لا يمكن أن يكون ناتج عدم اليقين في موضع الجسيم وعدم اليقين في زخمه أقل من نصف ثابت بلانك المخفض:

هذه العلاقة تعبر عن مبدأ عدم اليقين لهايزنبرغ. إنه يضع حدودًا لما يمكننا معرفته عن الجسيم من القياسات المتزامنة للموضع والزخم. إذا كانت x Δ x كبيرة ، فإن Δ p p صغيرة والعكس صحيح. يمكن اشتقاق المعادلة 7.15 في مقرر أكثر تقدمًا في الفيزياء الحديثة. التفكير في هذه العلاقة في عمله المبادئ الفيزيائية لنظرية الكم، كتب هايزنبرغ: "أي استخدام لكلمات" موضع "و" سرعة "بدقة تتجاوز تلك المعطاة بواسطة [العلاقة] لا معنى له تمامًا مثل استخدام الكلمات التي لم يتم تعريف معانيها."

لاحظ أن مبدأ عدم اليقين لا علاقة له بدقة الجهاز التجريبي. حتى بالنسبة لأجهزة القياس المثالية ، فإن هذه الشكوك ستظل قائمة لأنها تنشأ في الطبيعة الشبيهة بالموجة للمادة. تعتمد القيمة الدقيقة للمنتج Δ x Δ p x Δ p على الشكل المحدد للدالة الموجية. ومن المثير للاهتمام أن دالة Gaussian (أو توزيع منحنى الجرس) تعطي القيمة الدنيا لمنتج عدم اليقين: Δ x Δ p = ℏ / 2. Δ س Δ ع = / 2.

مثال 7.5

مبدأ عدم اليقين الكبير والصغير

إستراتيجية

حل

دلالة

مثال 7.6

عدم اليقين وذرة الهيدروجين

إستراتيجية

حل

نحصل على ضرب البسط والمقام في c 2 c 2

دلالة

الطاقة والوقت

نوع آخر من مبدأ عدم اليقين يتعلق بأوجه عدم اليقين في القياسات المتزامنة لطاقة الحالة الكمية وعمرها ،

حيث Δ E E هو عدم اليقين في قياس الطاقة و Δ t Δ t هو عدم اليقين في قياس العمر. لا ينتج مبدأ عدم اليقين في وقت الطاقة من علاقة من النوع المعبر عنه بالمعادلة 7.15 لأسباب فنية تتجاوز هذه المناقشة. ومع ذلك ، فإن المعنى العام لمبدأ وقت الطاقة هو أن الحالة الكمومية التي توجد لفترة قصيرة فقط لا يمكن أن يكون لها طاقة محددة. والسبب هو أن تردد الحالة يتناسب عكسياً مع الوقت وأن التردد يتصل بطاقة الحالة ، لذلك لقياس الطاقة بدقة جيدة ، يجب ملاحظة الحالة للعديد من الدورات.

للتوضيح ، فكر في الحالات المثارة للذرة. يمكن استنتاج الأعمار المحدودة لهذه الحالات من أشكال الخطوط الطيفية التي لوحظت في أطياف الانبعاث الذري. في كل مرة تتحلل فيها الحالة المثارة ، تختلف الطاقة المنبعثة قليلاً ، وبالتالي ، يتميز خط الانبعاث بـ توزيع من الترددات الطيفية (أو الأطوال الموجية) للفوتونات المنبعثة. ونتيجة لذلك ، تتميز جميع الخطوط الطيفية بعروض طيفية. يتوافق متوسط ​​طاقة الفوتون المنبعث مع الطاقة النظرية للحالة المثارة ويعطي الموقع الطيفي لقمة خط الانبعاث. الدول قصيرة العمر لها عروض طيفية واسعة والحالات طويلة العمر لها عروض طيفية ضيقة.


51 مبدأ عدم اليقين Heisenberg

مبدأ عدم اليقين لهايزنبرغ هو مبدأ أساسي في ميكانيكا الكم. تقريبًا ، ينص على أنه إذا علمنا كل شىء حول مكان وجود الجسيم (عدم اليقين في الموضع صغير) ، نعلم لا شيئ حول زخمها (عدم اليقين في الزخم كبير) والعكس صحيح. توجد أيضًا إصدارات من مبدأ عدم اليقين للكميات الأخرى أيضًا ، مثل الطاقة والوقت. نناقش مبدأ الزخم-الموقف ومبادئ عدم اليقين في وقت الطاقة بشكل منفصل.

الزخم والموقف

لتوضيح مبدأ عدم اليقين في موضع الزخم ، فكر في جسيم حر يتحرك على طول x-اتجاه. يتحرك الجسيم بسرعة ثابتة ش والزخم . وفقًا لعلاقات دي بروي ، و . كما تمت مناقشته في القسم السابق ، يتم إعطاء دالة الموجة لهذا الجسيم بواسطة

وكثافة الاحتمال هو زي موحد ومستقل عن الوقت. من المرجح أن يتم العثور على الجسيم في أي مكان على طول x-المحور ولكن له قيم محددة للطول الموجي ورقم الموجة ، وبالتالي الزخم. عدم اليقين في الموقف لانهائي (نحن غير متأكدين تمامًا من الموقف) وعدم اليقين في الزخم هو صفر (نحن متأكدون تمامًا من الزخم). يتوافق هذا الحساب للجسيم الحر مع مبدأ عدم اليقين لهيزنبرغ.

يمكن إصدار عبارات مماثلة من الجسيمات الموضعية. في نظرية الكم ، يتم نمذجة الجسيم المحلي من خلال تراكب خطي لحالات الجسيمات الحرة (أو الموجة المستوية) تسمى حزمة الموجة. ويرد مثال على حزمة موجة في (الشكل). تحتوي الحزمة الموجية على العديد من الأطوال الموجية وبالتالي من خلال علاقات دي برولي العديد من العزم — ممكن في ميكانيكا الكم! يحتوي هذا الجسيم أيضًا على العديد من قيم الموضع ، على الرغم من أن الجسيم يقتصر في الغالب على الفاصل الزمني . يمكن أن يكون الجسيم موضعيًا بشكل أفضل يمكن تقليلها) إذا تم إضافة المزيد من حالات الموجة المستوية ذات الأطوال الموجية أو العزم المختلفة معًا بالطريقة الصحيحة قد ارتفع). ووفقًا لهايزنبرج ، فإن أوجه عدم اليقين هذه تخضع للعلاقة التالية.

لا يمكن أن يكون ناتج عدم اليقين في موضع الجسيم وعدم اليقين في زخمه أقل من نصف ثابت بلانك المخفض:

هذه العلاقة تعبر عن مبدأ عدم اليقين لهايزنبرغ. إنه يضع حدودًا لما يمكننا معرفته عن الجسيم من القياسات المتزامنة للموضع والزخم. إذا هو كبير، صغير والعكس صحيح. يمكن اشتقاق (الشكل) في مقرر أكثر تقدمًا في الفيزياء الحديثة. التفكير في هذه العلاقة في عمله المبادئ الفيزيائية لنظرية الكم، كتب هايزنبرغ: "أي استخدام لكلمات" موضع "و" سرعة "بدقة تتجاوز تلك المعطاة بواسطة [العلاقة] لا معنى له تمامًا مثل استخدام الكلمات التي لم يتم تعريف معانيها."

لاحظ أن مبدأ عدم اليقين لا علاقة له بدقة الجهاز التجريبي. حتى بالنسبة لأجهزة القياس المثالية ، فإن هذه الشكوك ستظل قائمة لأنها تنشأ في الطبيعة الشبيهة بالموجة للمادة. القيمة الدقيقة للمنتج يعتمد على الشكل المحدد للدالة الموجية. ومن المثير للاهتمام أن دالة Gaussian (أو توزيع منحنى الجرس) تعطي الحد الأدنى لقيمة منتج عدم اليقين:

مبدأ عدم اليقين الكبير والصغير حدد الحد الأدنى من عدم اليقين في مواضع الكائنات التالية إذا كانت سرعاتها معروفة بدقة تبلغ : (أ) إلكترون و (ب) كرة بولينج كتلتها 6.0 كجم.

الإستراتيجية بالنظر إلى عدم اليقين في السرعة ، علينا أولاً تحديد عدم اليقين في الزخم ثم اقلب (الشكل) لإيجاد عدم اليقين في الموضع .

الأهمية على عكس حالة عدم اليقين في موضع الإلكترون ، فإن عدم اليقين في موضع كرة البولينج صغير بما لا يقاس. ثابت بلانك صغير جدًا ، لذا فإن القيود التي يفرضها مبدأ عدم اليقين ليست ملحوظة في الأنظمة العيانية مثل كرة البولينج.

عدم اليقين وذرة الهيدروجين تقدير طاقة الحالة الأرضية لذرة الهيدروجين باستخدام مبدأ عدم اليقين لهايزنبرغ. (تلميح: وفقًا للتجارب المبكرة ، يبلغ حجم ذرة الهيدروجين حوالي 0.1 نانومتر.)

الإستراتيجية يمكن نمذجة إلكترون مرتبط بذرة هيدروجين بواسطة جسيم مرتبط بصندوق أحادي البعد من الطول إن دالة موجة الحالة الأرضية لهذا النظام هي نصف موجة ، مثل تلك الواردة في (الشكل). هذا هو الطول الموجي الأكبر الذي يمكن أن "يلائم" الصندوق ، لذا فإن دالة الموجة تتوافق مع أدنى حالة طاقة. لاحظ أن هذه الوظيفة متشابهة جدًا في الشكل مع وظيفة Gaussian (منحنى الجرس). يمكننا أخذ متوسط ​​طاقة الجسيم الموصوف بهذه الوظيفة (ه) كتقدير جيد لطاقة الحالة الأرضية . يرتبط متوسط ​​طاقة الجسيم بمتوسط ​​مربع الزخم الخاص به ، والذي يرتبط بعدم يقين الزخم.

الحل لحل هذه المشكلة ، يجب أن نكون محددين بشأن المقصود بعبارة "عدم اليقين في الموقف" و "عدم اليقين في الزخم". نحدد عدم اليقين من الموقف مع الانحراف المعياري للموضع ، وعدم اليقين من الزخم مع الانحراف المعياري للزخم . بالنسبة للدالة Gaussian ، يكون ناتج عدم اليقين هو

من المرجح أن يتحرك الجسيم يسارًا مع تحركه لليمين ، لذلك . أيضا ، عدم اليقين من الموقف يمكن مقارنته بحجم الصندوق ، لذلك وبالتالي فإن طاقة الحالة الأرضية المقدرة هي

ضرب البسط والمقام في يعطي

الأهمية استنادًا إلى التقديرات المبكرة لحجم ذرة الهيدروجين ومبدأ عدم اليقين ، تكون طاقة الحالة الأرضية لذرة الهيدروجين في نطاق eV. تبلغ طاقة التأين للإلكترون في طاقة الحالة الأرضية حوالي 10 إلكترون فولت ، لذلك تم تأكيد هذا التنبؤ تقريبًا. (ملحوظة: المنتج غالبًا ما تكون قيمة مفيدة في إجراء العمليات الحسابية في ميكانيكا الكم.)

الطاقة والوقت

نوع آخر من مبدأ عدم اليقين يتعلق بأوجه عدم اليقين في القياسات المتزامنة لطاقة الحالة الكمية وعمرها ،

أين هو عدم اليقين في قياس الطاقة و هو عدم اليقين في قياس العمر. لا ينتج مبدأ عدم اليقين في وقت الطاقة عن علاقة من النوع الذي يعبر عنه (الشكل) لأسباب فنية تتجاوز هذه المناقشة. ومع ذلك ، فإن المعنى العام لمبدأ وقت الطاقة هو أن الحالة الكمومية التي توجد لفترة قصيرة فقط لا يمكن أن يكون لها طاقة محددة. والسبب هو أن تردد الحالة يتناسب عكسياً مع الوقت وأن التردد يتصل بطاقة الحالة ، لذلك لقياس الطاقة بدقة جيدة ، يجب ملاحظة الحالة للعديد من الدورات.

للتوضيح ، فكر في الحالات المثارة للذرة. يمكن استنتاج الأعمار المحدودة لهذه الحالات من أشكال الخطوط الطيفية التي لوحظت في أطياف الانبعاث الذري. في كل مرة تتحلل فيها الحالة المثارة ، تختلف الطاقة المنبعثة قليلاً ، وبالتالي ، يتميز خط الانبعاث بـ توزيع من الترددات الطيفية (أو الأطوال الموجية) للفوتونات المنبعثة. نتيجة لذلك ، تتميز جميع الخطوط الطيفية بعروض طيفية. يتوافق متوسط ​​طاقة الفوتون المنبعث مع الطاقة النظرية للحالة المثارة ويعطي الموقع الطيفي لقمة خط الانبعاث. الدول قصيرة العمر لها عروض طيفية واسعة والحالات طويلة العمر لها عروض طيفية ضيقة.

التحولات الذرية: توجد الذرة عادة في حالة من الإثارة لحوالي . تقدير عدم اليقين في تردد الفوتونات المنبعثة عندما تقوم الذرة بانتقال من حالة مثارة مع الانبعاث المتزامن للفوتون بمتوسط ​​تردد . هل الإشعاع المنبعث أحادي اللون؟

الإستراتيجية نعكس (الشكل) للحصول على الطاقة اللايقينية ودمجها مع طاقة الفوتون ليحصل . لتقدير ما إذا كان الانبعاث أحادي اللون أم لا ، نقوم بالتقييم .

الحل الانتشار في طاقات الفوتون هو . لذلك،

الأهمية لأن ترددات الفوتونات المنبعثة لها داخلها في المائة من متوسط ​​التردد ، يمكن اعتبار الإشعاع المنبعث أحادي اللون.

تأكد من فهمك تقوم ذرة الصوديوم بالانتقال من الحالة المثارة الأولى إلى الحالة الأرضية ، وتنبعث منها فوتون 589.0 نانومتر بطاقة 2.105 فولت. إذا كان عمر هذه الحالة المثارة ، ما هو عدم اليقين في طاقة هذه الحالة المثارة؟ ما هو عرض الخط الطيفي المقابل؟

ملخص

  • ينص مبدأ عدم اليقين في Heisenberg على أنه من المستحيل قياس x- مكوّنات الموضع والزخم للجسيم بدقة عالية اعتباطية. دائمًا ما يكون ناتج أوجه عدم اليقين التجريبية أكبر من أو يساوي
  • لا علاقة لقيود هذا المبدأ بجودة الجهاز التجريبي ولكنها تنشأ في الطبيعة الشبيهة بالموجة للمادة.
  • يعبر مبدأ عدم اليقين في وقت الطاقة عن الملاحظة التجريبية بأن الحالة الكمومية التي توجد لفترة قصيرة فقط لا يمكن أن يكون لها طاقة محددة.

أسئلة مفاهيمية

إذا كانت شكليات ميكانيكا الكم "أكثر دقة" من الميكانيكا الكلاسيكية ، فلماذا لا نستخدم ميكانيكا الكم لوصف حركة الضفدع القافز؟ يشرح.

هل يمكن معرفة الطول الموجي لجسيم دي بروي بدقة؟ هل يمكن معرفة موضع الجسيم بدقة؟

نعم ، إذا كان موقعها غير معروف تمامًا. نعم ، إذا كان زخمها غير معروف تمامًا.

هل يمكننا قياس طاقة جسيم موضعي حر بدقة كاملة؟

هل يمكننا قياس موضع الجسيم وزخمه بدقة تامة؟

لا. وفقًا لمبدأ عدم اليقين ، إذا كان عدم اليقين بشأن موضع الجسيم صغيرًا ، فإن عدم اليقين بشأن زخمه يكون كبيرًا. وبالمثل ، إذا كان عدم اليقين بشأن موضع الجسيم كبيرًا ، فإن عدم اليقين بشأن زخمه يكون صغيرًا.

مشاكل

قياس السرعة - تم إجراء الجسيمات بدقة 0.02 مم / ثانية. ما هو الحد الأدنى من عدم اليقين في موقعها؟

يوجد غاز من ذرات الهيليوم عند 273 كلفن في وعاء مكعب طول ضلعه 25.0 سم. (أ) ما هو الحد الأدنى من عدم اليقين في مكونات الزخم لذرات الهليوم؟ (ب) ما هو الحد الأدنى من عدم اليقين فى مكونات السرعة؟ (ج) أوجد نسبة عدم اليقين في (ب) إلى متوسط ​​سرعة الذرة في كل اتجاه.

أ. ب. ج.

إذا كان عدم اليقين في -مكون موضع البروتون هو 2.0 مساءً ، أوجد الحد الأدنى من عدم اليقين في القياس المتزامن للبروتون -مكون السرعة. ما هو الحد الأدنى من عدم اليقين في القياس المتزامن للبروتون -مكون السرعة؟

بعض الجسيمات الأولية غير المستقرة لها طاقة سكونية تبلغ 80.41 جيجا إلكترون فولت وعدم اليقين في طاقة الراحة تبلغ 2.06 جيجا إلكترون فولت. تقدير عمر هذا الجسيم.

يبلغ عمر الذرة في الحالة غير المستقرة 5.2 مللي ثانية. أوجد الحد الأدنى من عدم اليقين في قياس طاقة الحالة المثارة.

تشير القياسات إلى أن الذرة تظل في حالة الإثارة بمتوسط ​​زمن قدره 50.0 نانوثانية قبل الانتقال إلى الحالة الأرضية مع الانبعاث المتزامن لفوتون 2.1-eV. (أ) تقدير عدم اليقين في وتيرة الفوتون. (ب) ما هو جزء متوسط ​​تردد الفوتون؟

أ. ب.

لنفترض أن الإلكترون محصور في منطقة طولها 0.1 نانومتر (بترتيب حجم ذرة الهيدروجين) وطاقته الحركية تساوي طاقة الحالة الأرضية لذرة الهيدروجين في نموذج بوهر (13.6 إلكترون فولت). (أ) ما هو الحد الأدنى من عدم التيقن من زخمها؟ ما هو جزء من زخمها؟ (ب) ما مقدار عدم اليقين في الطاقة الحركية لهذا الإلكترون إذا كان زخمه مساويًا لإجابتك في الجزء (أ)؟ ما هو جزء من طاقته الحركية؟


4. المقارنات

في هذا القسم ، نقارن النتائج التي أنتجتها DAOSPEC مع البيانات والبرامج من الأدبيات الحالية. نلخص ونناقش في الفقرة 4.1 جميع الأوراق التي ، على حد علمنا ، استخدمت DAOSPEC ، بما في ذلك اختبارنا الخاص مع بيانات من Pancino et al. (2002). نقارن أيضًا DAOSPEC مع EWDET (الفقرة 4.2) ومع ARES (الفقرة 4.3) ونقوم أخيرًا بإجراء تحليل وفرة للشمس (الفقرة 4.4).

4.1 اختبارات الأدب على DAOSPEC

كان DAOSPEC متاحًا للمجتمع الفلكي منذ عام 2002 ، عندما تم توزيع الإصدارات التجريبية الأولى. منذ ذلك الحين ، تطورت إلى النموذج المعروض هنا وفي كتاب الطبخ ، وتم استخدامه واختباره من قبل بعض الزملاء: استخدم عدد قليل من المؤلفين الكود دون ذكر أي اختبارات محددة (Meléndez et al. 2003 Pasquini et al. 2004 Dall وآخرون 2005a، 2005b، 2006 Pompéia et al. 2005 Zoccali et al. 2006 Lecureur et al.2007).

تقارن أوراق أخرى قياسات DAOSPEC بالقياسات اليدوية باستخدام IRAF أو MIDAS أو طرق أخرى وتجد اتفاقًا جيدًا ، لكنها لا تظهر المقارنة صراحة (Pancino 2004 da Silva et al. 2005 و 2006 Barbuy et al.2006 و 2007 Letarte et آل .2006 Letarte 2007 Alves-Brito et al.2006). استخدمت ورقة واحدة DAOSPEC لقياس السرعات الشعاعية ويذكر أن المقارنة مع نتائج fxcor داخل IRAF يعطي اتفاقًا ضمن أوجه عدم اليقين (موناكو وآخرون 2005). تنشر ورقتان أخريان مقارنة بين الحرب الإلكترونية المقاسة بواسطة DAOSPEC مع القياسات اليدوية (Alves-Brito et al. 2005 Venn & amp Hill 2005) تمت مناقشتها في الفقرة 4.1.1.

على حد علمنا ، هناك ورقتان فقط تختبران DAOSPEC على نطاق واسع: Sousa et al. (2006 ، 2007) ، والتي تمت مناقشتها بالتفصيل في الأقسام التالية.

4.1.1. مقارنات أساسية

ألفيس بريتو وآخرون. (2005) استخدم DAOSPEC لقياس EW لخطوط Fe I و Fe II في خمسة عمالقة حمراء في 47 Tuc. أظهرت مقارنة قياسات IRAF التفاعلية مع نتائج DAOSPEC على النجم 25 اتفاقًا جيدًا نسبيًا ، بمعنى أن متوسط ​​ΔEW كان أصغر من الانتشار (σ = 4.82 مأ انظر الشكل 3). ولكن ظهر اتجاه طفيف مع الحرب الإلكترونية ، بمعنى أنه بالنسبة للحرب الإلكترونية الأكبر ، أصبحت الحرب الإلكترونية أكبر. وفقًا للمناقشة الواردة في الفقرة 3.5.2 أعلاه ، يمكن أن يكون تأثير مثل هذا ، على سبيل المثال ، ناتجًا عن إدخال غير مناسب قليلاً (10٪) FWHM ، لكننا لا نعرف ما إذا كان هناك شيء من هذا القبيل قيد التشغيل هنا. في النهاية ، اخترنا اعتماد قياسات IRAF لاشتقاق معلمات الغلاف الجوي ووفرة الحديد.

تم عرض مقارنة أخرى أكثر ملاءمة بواسطة Venn & amp Hill (2005) ، الذي رسم قياسات IRAF EW بواسطة Shetrone et al. (2003) مقابل DAOSPEC ، على أطياف GIRAFFE (R 20000) من نجمتين في مجرة ​​Sculptor dwarf galaxy. وجدوا اتفاقًا جيدًا (في حدود 10٪) ، مع عدم وجود علامة على خروج عن العلاقة 1: 1 للخطوط القوية حتى 200 متر مكعب. هذا متوقع إذا أخذنا في الاعتبار مثال الشكل 7 ، حيث نظهر أن تقريب Gaussian أكثر موثوقية ، حتى بالنسبة للخطوط القوية ، حيث تنخفض الدقة من R 10 5 إلى R 20.000.

4.1.2. مقارنات مفصلة

أجريت ورقتان فقط اختبارات مفصلة على DAOSPEC ، وهما Sousa et al. (2006 ، 2007).

سوزا وآخرون (2006) استخدم نموذجًا اصطناعيًا (صامتًا) للطيف الشمسي بجودة عالية جدًا (R 120،000 و S / N 300) لمقارنة قياسات DAOSPEC و IRAF EW. لقد وجدوا اتفاقًا تامًا بشكل أساسي في نافذة حمراء (6000-6300 أ) مع ΔEW = 0.8 ± 1.1 مأ، بناءً على 34 سطراً ، واتفاق عادل في نافذة زرقاء (4400-4650 أ) مع ΔEW = 4.0 ± 4.9 مأ، على أساس 25 سطرًا (انظر أيضًا الفقرة 4.3). يجب أن يكون هذا ، بالطبع ، بسبب ارتفاع مستوى الازدحام وانخفاض نسبة الإشارة إلى الضوضاء للجزء الأزرق من الطيف.

تم بعد ذلك تدهور الطيف الاصطناعي في كل من S / N والدقة ، وتمت مقارنة قياسات DAOSPEC مع بعضها البعض. يبدو أن DAOSPEC يعطي متوسطًا مختلفًا للغاية للحرب الإلكترونية والتباين ، بمقدار ΔEW = 15 ± 20 مأ، للحالة الأقل دقة (S / N 10 و R 12،000). بينما يمكن فهم بعض الزيادة في التباين بسهولة عند تغيير S / N أو الدقة ، كما يمكن رؤيته في اختباراتنا (الفقرة 3.6) ، فإن التناقضات والتباين في الحرب الإلكترونية كبير مثل تلك التي أبلغ عنها Sousa et al. (2006) يصعب فهمه ، وبالفعل لا نجد مثل هذا السلوك في اختباراتنا (§§ 3.6.1 و 3.6.2).

عند قياس أطياف FEROS الخاصة بهم ، Sousa et al. (2006) واجه بعض المشاكل. على وجه الخصوص ، وجدوا انتشارًا هائلاً وغير مقبول في الحرب الإلكترونية الناتجة ، وتمكنوا من الحصول على الحرب الإلكترونية المعقولة فقط عن طريق قطع الطيف إلى 100 مقطع وتشغيل DAOSPEC يدويًا على كل قطعة صغيرة. ثم انخفض ΔEW من قياسات IRAF من 12.1 ± 17.1 مأ إلى 3.0 ± 4.7 مأ (S. Sousa 2007 ، اتصالات خاصة) ولكن بالطبع على حساب وقت التنفيذ والقوى البشرية (عدة ساعات). لقد قدموا لنا بعضًا من أطياف FEROS الخاصة بهم (الشكل 17) وكررنا قياساتهم. وجدنا أن استخدام ترتيب مختلف لملاءمة الاستمرارية (30 بدلاً من 8 شكل 17) و FWHM مختلف (14 بدلاً من 5 § 3.5.2 الشكلين 10 و 11) أعطى أفضل بكثير من EWs وقلل من وقت التنفيذ بمقدار عامل 50 تقريبًا. لقد حاولنا أيضًا تقطيع الطيف إلى أجزاء قصيرة ، سواء للتحقق من التناسق أو لاختبار أوقات التنفيذ ، لكننا استخدمنا نصوص شل لتشغيل DAOSPEC تلقائيًا - في 10 دقائق ، إجمالي الوقت (انظر الفقرة 3.7) - على القطع المختلفة: obtained ΔEW = -4.1 ± 4.3 mأ when using the full spectrum, and ΔEW = -6.5 ± 4.4 mأ when the spectrum was cut into 100 Å pieces.

Fig. 17.— Typical FEROS spectrum of a Solar-type star (kindly provided by S. Sousa 2008, private communication). Two Legendre DAOSPEC polynomials are overplotted, with an arbitrary vertical offset for clarity. As can be seen, the Legendre polynomial of eighth order (lower solid line) does not adequately represent the spectral shape, while the thirtieth order polynomial (upper solid line) fits the spectrum better.

The paper that introduced ARES (Sousa et al. 2007) was the second to perform a detailed check on DAOSPEC, using the same data sets as Sousa et al. (2006) and the same DAOSPEC configuration parameters. ARES is based on the IRAF task splot, and therefore the first comparisons made were between ARES and IRAF, and between DAOSPEC and IRAF. The results obtained with ARES were more similar to IRAF than the ones with DAOSPEC, supporting the conclusion that ARES is a very well-designed extension of splot. We have seen, however, that the most important factor in these comparisons can be the way the continuum is chosen. In case of crowded spectra, we have claimed that the algorithm employed by DAOSPEC can give better results (§ 3.2.1), but since both IRAF and ARES are highly customizable in terms of continuum placement, we do not doubt experienced and careful users can obtain good results with those algorithms.

To summarize, an appropriate choice of the configuration parameters is crucial to obtain good results with DAOSPEC. The Cookbook provides practical and objective methods for finding the best values for these parameters, as well as the discussions and tests presented in § 3.5 here.

4.1.3. Red Giants in ω Centauri

The data set of EW measurements that Pancino et al. (2002) obtained with the IRAF task splot to derive abundances for six red giant stars in ω Cen constitutes a good testbed for DAOSPEC. The full data description can be found in the original paper in short, the six spectra were taken with UVES at the Very Large Telescope in Paranal, Chile, with R 45,000 and S/N 100–150 per resolution element, covering the range 5250–6920 أ. Stellar metallicities range from [Fe/H] = -0.49 to -1.20, with temperatures around 4000 K and gravities of about 1 dex. The input line list contains 230 features of various elements, although only [Fe/H], [Ca/Fe], [Si/Fe], and [Cu/Fe] were published by Pancino et al. (2002).

We remeasured these spectra with DAOSPEC and compared the results (Fig. 18). A total of 1150 lines were used in the comparison. We found a very good average agreement, with DAOSPEC measurements marginally smaller, by ΔEW = -1.3 ± 10.3 mأ. When considering the six stars separately, we found differences ranging from ΔEW = -3.7 ± 10.7 mأ, for star WFI 222068, which is the most metal rich of the sample, to ΔEW = 1.1 ± 7.1 mأ, for star WFI 618854, which is the most metal poor of the sample. No trend with EW is apparent.

Fig. 18.— Comparison of the original measurements from Pancino et al. (2002), obtained with IRAF (ذ axis), and the measurements obtained here with DAOSPEC with the same line list and on the same spectra (x axis). Perfect agreement is marked with a dotted line.

The agreement appears satisfactory within the uncertainties, especially in light of the tests performed in § 3.2.1, where we show again that an agreement between DAOSPEC and IRAF measurements gets naturally worse as metallicity (and line crowding) increases.

4.2 DAOSPEC versus EWDET

EWDET (Ramírez et al. 2001 see also § 2) was obtained by courtesy of S. Ramírez (2005, private communication). It came with a test spectrum of a moderately crowded red giant in M 71, covering the range 7900–8000 أ, with R 30,000 and a S/N of at least 100 everywhere. We used this spectrum with the default configuration file ewdet.inp provided with the code, to measure the EWs of 70 lines. Ten additional lines were found, but EWDET did not report an EW for any of them because the Gaussian fit did not converge. All the lines found by EWDET were used as the input "laboratory" line list for DAOSPEC, which we then used to obtain EWs from the same spectrum. It is perhaps worth stressing here that the input line list plays no part in the finding of candidate spectral lines by DAOSPEC it is only after features have been detected that tentative identifications with features in the input list are sought. There is no attempt to "force" the detection of features in the spectrum at wavelengths specified by the input laboratory list. In the present case, DAOSPEC was able to (independently) find and measure all the lines that EWDET had found, including the 10 that EWDET had subsequently discarded. No apparent defect was found on those 10 lines in a visual inspection of the spectrum.

Figure 19 plots the difference between the DAOSPEC and EWDET EWs versus EW (top panel) and versus wavelength (bottom panel). The average difference is ΔEW = -1.2 أ with a variance of 11.7 mÅ. While the two sets of measurements appear in good agreement, the spread is slightly higher than expected, i.e., higher than that found in the comparison of § 4.1.3 between DAOSPEC and handmade IRAF measurements. A trend of increasing spread with increasing EW might be present, while no obvious trend with wavelength is seen.

Fig. 19.— Difference between DAOSPEC and EWDET EWs measured on a test spectrum of a giant in M 71 provided with EWDET. ΔEW is plotted vs. EW (top panel) and vs. wavelength (bottom panel). The average difference is ΔEW = -1.2 ± 11.7 mأ.

A comparison of the model continua adopted by the two programs shows an overall systematic difference of 1.3% (DAOSPEC continuum lower), with a variance of 0.6% around this mean offset. For comparison, the residual spectrum produced by DAOSPEC has a pixel-to-pixel flux variance of 2%. On the surface, this case appears to be similar to that discussed in § 3.2 above. Such a discrepancy in the continuum levels could be the cause of the small ΔEW offset found between the two codes (see § 2, Fig. 2).

On average, the standard errors estimated by DAOSPEC are larger by 0.7 ± 1.5 mأ than those reported by EWDET, even though the latter also includes the uncertainty due to the continuum placement and the former does not. In any case, given the large spread in ΔEW seen in Figure 19, both error estimates appear a bit small, indicating that some other unidentified source of uncertainty might be present. If we estimate an error budget, including the average errors by EWDET (

4 mأ) and an error due to the continuum placement as estimated roughly from Figure 2 (

7 مأ), we account for a spread of

9 مأ i.e., the missing source of uncertainty must be of about

8 مأ. 32 This might suggest that the EWDET continuum placement uncertainty (Ramírez et al. 2001 and § 2.2 here) might be underestimated.

Finally, the average difference between the FWHM found by EWDET for each line and the FWHM found by DAOSPEC (scaled with wavelength) is ΔFWHM = 0.001 ± 0.076 أ, and the average radial-velocity difference between the two sets, in the sense EWDET minus DAOSPEC, of measurements is very small, Δالخامسص = 0.1 ± 0.6 km s -1 .

Summarizing, the comparison can be considered satisfactory once all the sources of uncertainty are properly taken into account. The only minor disadvantage of EWDET is the fact that it has been written for personal use and requires knowledge of Fortran to adapt manually some routines to meet the needs of each set of spectra, including naming conventions.

4.3 DAOSPEC versus ARES

ARES (Sousa et al. 2007) has been obtained from the ARES Web site 33 with, inter alia, a test spectrum of the Sun obtained with HARPS from observations of Ganymede. 34 Similarly to what we have done with EWDET, we ran ARES on the test spectrum and used its output as an input line list for DAOSPEC.

The average differences of key parameters, in the sense of DAOSPEC minus ARES, can be summarized as follows: ΔEW = -1.1 ± 3.7 mأ, ΔFWHM = 0.01 ± 0.05 أ, 35 Δالخامسص = -0.002 ± 0.126 km s -1 , based on 98 lines in common. No error estimate is provided by ARES. At first glance, all these values appear in very good agreement within the uncertainties, even better than the comparison made with EWDET in § 4.2. This is especially true when considering the spread in ΔEW, which is 11.7 mÅ in the comparison with EWDET and only 3.7 mÅ in the comparison with ARES. The very good agreement must of course be largely due to the fine quality of the test spectrum, which has R 45,000 and S/N 350. Figure 20 confirms good agreement with no trends with wavelength or EW in the differences, except for a possible problem in the bluest and most crowded part of the spectrum. A last comparison was made on the number of lines found. The authors do not mention how many lines were found and/or identified by each code, but state that ARES finds more lines than DAOSPEC. If we compare the Solar spectra taken from Ganymede, we find that ARES identifies 101 lines, and DAOSPEC identifies 100.

Fig. 20.— Difference between DAOSPEC and ARES EWs measured on a test spectrum of the Sun provided with ARES. ΔEW is plotted vs. EW (top panel) and vs. wavelength (bottom panel). The average difference is ΔEW = -1.1 ± 3.7 mأ.

ARES and DAOSPEC represent two very different ways of approaching the problem of measuring EWs. ARES closely follows IRAF, including a major IRAF feature, namely the possibility to customize the continuum-fitting procedure. Because of the way the continuum is fit, ARES is faster than DAOSPEC, although maybe a bit longer to configure. ARES takes of the order of seconds for each spectrum, while DAOSPEC may take from a few seconds to a few minutes, depending on the spectrum characteristics. Finally, ARES gives no error estimate or radial velocity indeed, the radial velocity is one of the necessary inputs, not outputs of the code.

Nevertheless, in spite of the different continuum placement philosophies, ARES and DAOSPEC give entirely comparable measurements, within the uncertainties.

4.4. Abundance Analysis of the Sun

As a final test, DAOSPEC was used on the Solar spectrum obtained with HARPS (§ 4.3) to derive iron abundances for the Sun. The results have been compared, using the same models and abundance calculation code, to the abundances obtained with the EWs measured by Moore et al. (1966) and Rutten & van der Zalm (1984).

To measure EWs with DAOSPEC, we created a line list containing all lines in common between Moore et al. (1966) and Rutten & van der Zalm (1984). This line list was fed to DAOSPEC and, for homogeneity, it was also used to derive the Solar abundance with the original Moore et al. (1966) and Rutten & van der Zalm (1984) measurements.

We used the atmospheric models by Edvardsson et al. (1993) and the latest version of the abundance calculation code originally published by Spite (1967). For sake of homogeneity, the atomic parameters (including log gf) were taken from the line list of Rutten & van der Zalm (1984). In this way, the only difference among the three analyses comes from the EWs. The Solar temperature was kept fixed at 5780 K gravity was allowed to vary between log ز = 4.4 and 4.5, to allow for microadjustments of the Fe I and Fe II ionization equilibrium the microturbulent velocity was kept as a free parameter and the best value was chosen as the one that minimized the slope of the EW versus [Fe/H] relation.

The results of our analysis are shown in Table 1, where it can clearly be seen that only negligible variations in log ز and very small variations of the microturbulence (الخامسر) were necessary to obtain abundances that are quite compatible with each other, and with the Solar values.


How to estimate uncertainty of measurements of equivalent widths? - الفلك

Hi Robin, yes you are right the biggest challenge is estimating where the continuum is. IRAF gets you to manually place two points on the "continuum" and then identify all lines between these two points. It then deblends the lines by fitting Gaussian ( or other functions) to the curves and reports the lines center, FWHM and eqw etc. for all the lines.

SPLAT allows a similar process but you can provide a constant for the continuum or fit a polynomial for the background. Again it has several function you can fit with.

I found a paper on DAOSPEC which is an automatic program that has a good discussion on current methods. It also introduced an interesting idea I am trying manually with SPLAT. You estimate (guess) a background and fit the lines. You then subtract the fitted lines which leaves a new local background that provides a new estimate of the local continuum and you then use this etc. etc. iterating as long as you wish.

They also argue that you don't want the true continuum but the local continuum which will include unmodeled lines who's average contribution you want to avoid.

I think I will use an ensemble of methods to give an error estimate and then pick the one that is as robust as I can make it.

PS Given how lazy I am I shall try tp work out how to download and compile DAOSPEC or similar and let it do the work!

I've also been automating equivalent width calculations recently. I suspect you will take a different approach to me, but I thought I'd share my experience.

I am trying to measure the EW of lots of lines in lots of spectra automatically. I've not gone down the path of fitting polynomials or Gaussians. في حين أن:

  1. Work out the local continuum.
  2. Sum up the flux from the spectrum between 2 predetermined wavelengths for the start and end of the line.
  3. Calculate a dummy flux based on my local continuum level between the 2 wavelengths.
  4. Calculate my absorption flux by subtracting the summed flux from my dummy flux
  5. Finally calculate a width based on this absorption flux and the height of my local continuum.

As in the other posts, I also find working out the local continuum level to be the tricky bit. To deal with varying levels of noise, I take the median continuum of a few wavelength bins either side of my start and end line wavelength, then take the average of the continuum at my start and end wavelengths.

That is an interesting paper, I'll have to give it a read.

Hi Andy, I think your approach will work well with well isolated lines where you can be sure all the flux is from the line you are interested in. Where lines are blended fitting a Gaussians (or other line profile) allows you to deblend them, at least approximately. The biggest problem I have is that there is no obvious continuum in the yellow hypergiants which is why I am attracted to the idea in the paper of subtracting the fitted profile from the spectra to give a new estimate of the continuum.

I am going to experiment with SPLAT and see if taking different starting continuum levels converges to the same value in a few iterations - I easily lose focus!

I used a crude but simple estimate of the EW of the Hα and Hβ emission lines in the VV Cep spectrum, in order to monitor progress of the current eclipse. I drew a 'continuum' by extending a straight line between the turning points at the base of the emission lines. As an example here's the result I got in BASS with last night's spectrum:

I realise the approach is not strictly scientific but is repeatable and seems to have given a reasonably comparable set of measurements. Here's the latest time plot of my EW measurements on my own and others' Alpy spectra:

The latest episode of Hα brightening seems to have appeared bang on time!

I'd welcome any comments on the approach

If it works for you Hugh, I don't see any good reason not to use this method. If I were using it I would just look to see if the "continuum" you are using remains stable or if it moves systematically as the line changes strength. Even this does not matter if you just wish to follow the rise and fall of the intensity.

(The same answer as Andrew but with a bit more detail,read and forget if you like!)

Your measurements are showing nice qualitative trends but you have to be a bit careful when interpreting the EW of emission lines.

EW works well as a measurement of absorption line strength because absorption is normally just a proportion of the continuum, so provided you can decide where the local continuum is, the EW gives you a good measurement of the line strength. (eg even if the star changes in brightness, if the absorption is constant, the EW stays the same.)

Emission lines are different as they normally come from a different source than the continuum so are independent of it. This means the EW value of an emission line makes less sense as we are measuring it relative to something not connected with the emission line. This is OK provided we know that the continuum flux is constant (or at least how it is changing, so we can correct the EW to give a true measurement of the line strength) Otherwise the EW results can be deceiving. Classical novae are a good example. If you plot the EW of H alpha as the nova evolves it looks like the line is continuously getting stronger. In fact though this is mainly due to the continuum falling away and for much of the time the actual line strength is constant and even decreasing at times.

If we look specifically at your VV Cep spectrum, the hot star is now fully eclipsed so the continuum is that of the cool star photosphere and the emission comes from somewhere else (possibly an extended region (disc?) associated with the hot star but there are many possible sources). The variations in the continuum around the emission line will be due to a blend of the many absorption lines in the cool star spectrum and we don't see the true continuum at this resolution (It will likely be somewhere along the high points of the spectrum). The reference points you have chosen will be somewhere in the absorption lines so will only be fixed during totality, assuming no variations in the cool star spectrum. Outside totality, the reference points will rise closer to the continuum level as the hot star reappears and the cool star absorption lines lose their relative strength. The continuum flux will also increase to that of the two stars combined. Both these will affect the EW measurement even if the emission line strength actually remained constant.

All is not lost though if you want to make an absolute measurement of the way the emission line flux is varying, as all the necessary information is available.

What we would first need to do is to convert the spectrum to absolute flux. This could be done using the available measurements of photometric brightness around the time of the spectrum. Once that has been done, we can work in absolute flux rather than relative to some poorly defined and varying continuum.

The next step would be to remove the cool star component. We could try this now by subtracting a reference spectrum of a star of the same type, adjusting it to match the intensity of the absorption lines, but probably the best way to do this would be to wait to around mid eclipse when the hot star and any circumstellar material should be hidden and use this as a template. Once this is subtracted, we should be left with the flux calibrated spectrum of the uneclipsed components, probably dominated by Balmer emission lines with their actual intensities measurable directly.


Examples of Relative Uncertainty Calculations

مثال 1

Three 1.0 gram weights are measured at 1.05 grams, 1.00 grams, and 0.95 grams.

  • The absolute error is ± 0.05 grams.
  • The relative error (δ) of your measurement is 0.05 g/1.00 g = 0.05, or 5%.

Example 2

A chemist measured the time required for a chemical reaction and found the value to be 155 +/- 0.21 hours. The first step is to find the absolute uncertainty:

  • absolute uncertainty = 0.21 hours
  • relative uncertainty = Δt / t = 0.21 hours / 1.55 hours = 0.135

مثال 3

The value 0.135 has too many significant digits, so it is shortened (rounded) to 0.14, which can be written as 14% (by multiplying the value times 100).

The relative uncertainty (δ) in the measurement for the reaction time is:


شكر وتقدير

We are grateful to D. Brown, C. Hirata, V. Scowcroft, P. Shawhan, D. Spergel and H. Peiris for useful discussions. We thank the LIGO Scientific and Virgo Collaborations for public access to their data products. ك. is supported by the Lyman Spitzer Jr. Fellowship at the Department of Astrophysical Sciences, Princeton University. E.N. and O.G. are supported by the I-Core center of excellence of the CHE-ISF. س. is grateful for support from NWO VIDI and TOP Grants of the Innovational Research Incentives Scheme (Vernieuwingsimpuls) financed by the Netherlands Organization for Scientific Research (NWO). The work of K.M. is supported by NASA through the Sagan Fellowship Program executed by the NASA Exoplanet Science Institute, under contract with the California Institute of Technology (Caltech)/Jet Propulsion Laboratory (JPL). م. acknowledges the support of NSF award AST-1654815. A.T.D. is the recipient of an Australian Research Council Future Fellowship (FT150100415).


S and S/N

in photometry and spectrografy it is important to achieve an high S/N , this parameter being related to the accuracy of the measure
what about S ?
It is never mentioned in scientific astronomy articles, at least I never found it
is it not that important ?
In other words, two images having same S/N but different S are 100 % equivalent ?

#2 Taosmath

Yes, that's my understanding.

# 3 robin_astro

Correct but since we are talking about counting photons, N also depends on S. For a 100% efficient noise free instrument, S/N = sqrt (S) where S is the number of photons.

(To be pedantic, it is not the accuracy but the precision (ie the uncertainty) of the measurement that depends on the SNR)

Edited by robin_astro, 17 May 2021 - 06:37 AM.

#4 Taosmath

.

(To be pedantic, it is not the accuracy but the precision (ie the uncertainty) of the measurement that depends on the SNR)

My understanding is that the precision measures how many significant figures you are able to quote a result to. على سبيل المثال my height is 70" or 71" or 71.2" or 71.24" etc. (1,2,3 & 4 significant figures respectively)

The accuracy is determined by the the uncertainty. So if my height measurement is uncertain to +/- 1", then to quote to that precision is reasonable (my height is 71" +/- 1 ", meaning that you are 95% certain that my true height lies between 70" and 72"). It is not reasonable to quote my height as 71.24" if the uncertainty in that is +/- 1".

#5 robin_astro

أنا أعترض.

My understanding is that the precision measures how many significant figures you are able to quote a result to. على سبيل المثال my height is 70" or 71" or 71.2" or 71.24" etc. (1,2,3 & 4 significant figures respectively)

The accuracy is determined by the the uncertainty. So if my height measurement is uncertain to +/- 1", then to quote to that precision is reasonable (my height is 71" +/- 1 ", meaning that you are 95% certain that my true height lies between 70" and 72"). It is not reasonable to quote my height as 71.24" if the uncertainty in that is +/- 1".

Perhaps I worded it poorly.

Precision (uncertainty) is how repeatable a measurement is. Accuracy his how close the measurement is to the true value.

It is true you need high precision for high accuracy but that alone is not sufficient. You also need to understand and correct for any systematic errors which are often larger than the uncertainty and can be much more difficult to manage.

SNR may be useful as estimate of uncertainty (but even that is not sufficient. Consider the effects of scintillation on brightness measurements for example) but it tells us little about accuracy. A study of the systematic errors is needed to quantify that.

For example it is relatively straightforward to collect enough photons to measure the brightness of a star to a precision of 0.1% but much harder to measure it to that accuracy as this requires careful calibration and correction for a number systematic effects.

#6 zoltrix

# 7 روبيناسترو

I think that S/N should be related to the accuracy of the measure i.e how close is your measure to the true value

You might like to think that but that is not how precision and accuracy are defined. How close your value is to the true value is indeed accuracy but a high SNR gives you precision not accuracy. Accuracy is about calibration and correcting for systematic errors. If your calibration is not correct or you have systematic errors even a high precision result from a high S/N measurement will not be accurate. I recommend reading the Wikipedia article

#8 zoltrix

Actually there is some confusion between accuracy and precision

I took a book off the shelf:

Mean value of N = 0
Standard deviation of N = sigma

by translating ADUs into magnitudes you get

if so S/N is related to precision i.e the higher S/N the lower the distribution of your measures around the true magnitude
Yet the book speaks of. صحة

Edited by zoltrix, 18 May 2021 - 05:23 AM.

# 9 روبين_استرو


if so S/N is related to precision i.e the higher S/N the lower the distribution of your measures around the true magnitude

Certainly misunderstandings about this are common but the distinction between the terms صحة و precision (as used by professional scientists and engineeers) is clear. A high S/N narrows the distribution of individual measurements about the يعني measured value but that is not the same as the حقيقية القيمة.

(In fact when talking about brightness measurements unless you are measuring faint targets the S/N is not usually the most important factor and in any case can generally easily be improved just by taking longer exposures. There are other, often more important factors to consider to produce an دقيق measurement)

Let's look at a practical example. This is the AAVSO light curve of measured photometric V magnitudes for Betelgeuse around the minimum last year when there were many people following it. (I have plotted a mean curve over the individual measurements)

This was a bright target and the S/N of the images would easily have been >100, high enough to give a precision of better than 1% or 0.01 magnitudes. The scatter however is

10x this. بمعنى آخر precision calculated from the S/N was better than 0.01 but the typical صحة of the individual measurements is more like

0.1 Why is this ? Well there are many possible reasons. We could probably draw up a long list, but a couple to consider here are:-

Scintillation - This is a bright target so exposures would be short and the atmospheric turbulence causes the measured value to vary from second to second. (The effect of this can be reduced for example either by averaging many exposures or by defocusing the stars so longer exposures can be taken without saturating the camera)

Atmospheric extinction - Differential photometry relies on comparing the brightness of a star with others of known brightness. The measured brightness (and colour) of a star depends on how much atmosphere is in front of it (the air mass). This depends on the height above the horizon. Betelgeuse is a bright target and suitable comparison stars of similar magnitude are some distance away so can be subject to different levels of atmospheric extinction. Unless corrected for, this affects the صحة of the result but not the precision. You could make the same measurement as many times as you like with the highest S/N and you would still not get an accurate result)

#10 zoltrix

do you mean that by averanging more and more measures , with high S/N , the mean value does not get closer and closer to the true value ?
even assuming that the target and the comparison stars are not some distance away
If so , suppose I want to measure the magnitude of a star with accuracy +_ 0.1 mag, what shall I do ?

Edited by zoltrix, 18 May 2021 - 02:16 PM.

#11 robin_astro

do you mean that by averanging more and more measures , with high S/N , the mean value does not get closer and closer to the true value ?

do you mean that by averanging more and more measures , with high S/N , the mean value does not get closer and closer to the true value ?
even assuming that the target and the comparison stars are not some distance away
If so , suppose I want to measure the magnitude of a star with accuracy +_ 0.1 mag, what shall I do ?

I used this just as an example to show that precision and accuracy are not the same thing. If your comparison stars are good and not very different in air mass you should easily get better than 0.1 magnitude accuracy. Getting to 0.01 magnitude accuracy though starts to get tough and just getting a good SNR is not enough. To get there you need to think about things like the quality of your flat correction, the linearity of your sensor, calibrate your setup using standard stars and consider correcting for the effects of air mass and differences in colour between your target and comparison stars. The AAVSO manual photometry manual covers these.

I am not a photometry expert but there are others on here who will have a better idea about what is required to get high accuracy.

Edited by robin_astro, 18 May 2021 - 05:22 PM.

#12 brownrb1

To use a simple analogy of an archery target, the accuracy would be a grouping around the bullseye-which would be the correct value and the tightness of the grouping would be the precision. You could also be very precise (a tight group>, but outside the bullseye-precise but not accurate (I precisely measured the brightness curve of the wrong star).

#13 zoltrix

أهلا،
To use a simple analogy of an archery target, the accuracy would be a grouping around the bullseye-which would be the correct value and the tightness of the grouping would be the precision. You could also be very precise (a tight group>, but outside the bullseye-precise but not accurate (I precisely measured the brightness curve of the wrong star).
ديك

Suppose the archer miss the target because of a random wind continuosly changing direction without a preferential direction
In other words : wind mean value = 0 but wind standard deviation != 0
What does it happen by averanging the result of a large number of attempts ?
the mean value should tend to the true target
so the quetion is

even though S/N is , from an accademic point of view, related to the precision rather than to accuracy
Can S/N, in practice, be considered a synonimous with accuracy i.e an indication of how much you are close to the true magnitude of the star ?
in my opinion the answer is "yes" provide the noise is purely random
it is"no" otherwise

Edited by zoltrix, 19 May 2021 - 06:48 AM.

#14 robin_astro

even though S/N is , from an accademic point of view, related to the precision rather than to accuracy
Can S/N, in practice, be considered a synonimous with accuracy i.e an indication of how much you are close to the true magnitude of the star ?
in my opinion the answer is "yes" provide the noise is purely random
it is"no" otherwise

This is absolutely and categorically incorrect. How close the measurement is to the true value depends on a number of factors. The uncertainty due to noise is just one of them. S/N and similar random variations such as scintillation for example affect the precision but for an دقيق result you have to consider all systematic errors. To determine the accuracy of the measurement a full error analysis must include all these factors, not just S/N as my example of measurements of Betelgeuse brightness demonstrates. (Each of the measurements made were very precise but not very accurate)

Edited by robin_astro, 19 May 2021 - 07:20 AM.

#15 robin_astro

Some observations require high precision لكن لا high accuracy. For example if you are trying to measure the timing and depth of an exoplanet transit, you need very high precision so you can detect a small change, typically less than 1% so you need a high S/N (and a low level of other random variables such as scintillation). It does not matter if the actual measured brightness is not دقيق though as you are only interested in the change in brightness. This means you don't need to use a standard V filter and make the transformations to the standard brightness system which would otherwise be needed to produce an دقيق brightness.

#16 Ed Wiley

Robin is right about this. A colleague and I are preparing our paper on precision and accuracy at the amateur level of photometry. A preview can be seen at

#17 zoltrix

Fantastic movie
ok S/N only might not be enough
Accuracy is affected by sistematic errors ,too
lets back to the original question
S/N vs S
To be more specific
same focal ratio same photons per pixel thus same S/N
While total number of photons depend also on the aperture
what's the advantage, if any, of achieving an higher S ?

#18 iantaylor2uk

You will get a larger signal by using a larger aperture telescope. For example you won’t see much of M51 visually in an 80 mm refractor but you can see it’s spiral structure in a 16” or 20” telescope. If you have two telescopes with the same f ratio, the one with the larger aperture will give you a larger signal (if this is not the case why are professional telescopes so large?)

#19 robin_astro

To be more specific
same focal ratio same photons per pixel thus same S/N
While total number of photons depend also on the aperture
what's the advantage, if any, of achieving an higher S ?

Not sure why you have introduced focal ratio but you are correct about aperture. The number of photons S, collected in a given time eg from a star is proportional to the aperture squared.

In an ideal world the S/N is then sqrt(S) (The photon noise) so the more signal, the better the S/N. In practise some noise also comes from the camera and from the sky background but more signal always improves the S/N which defines the detectability of an object and how precise you can measure it.

Note you can compensate for a smaller aperture to some extent by increasing the exposure time (collecting more photons) but this also increases the total camera noise contribution so there is a limit to how far you can go

Edited by robin_astro, 09 June 2021 - 09:49 AM.

#20 robin_astro

To be more specific
same focal ratio same photons per pixel thus same S/N

You are correct that two telescopes with the same focal ratio but different apertures will collect the same number of photons per pixel but this is not what is important for S/N eg for photometry. What is important is how many photons in total you collect from the star. (or for an extended object per given area of sky). These might be spread over more pixels in the case of the larger aperture scope but in photometry you just add all these up so you get a higher S/N. (How much improvement depends on a number of factors including the camera noise, the size of the pixels and the sky background level but a larger aperture always gives a higher S/N)

Edited by robin_astro, 09 June 2021 - 10:12 AM.

#21 zoltrix

#22 Mark Lovik

From a cursory review of comments in this thread, there seems to be two different paths

1. Define accuracy and precision

2. How good are our measurements

There are books across a range of Engineering and Scientific disciplines on this topic, and a true mastery can take years.

Before you even try to answer these two questions with any scientific validity, there are some background ideas that need resolved.

A. S/N assumes background offset corrected values for both the noise and the signal component (or the background is sufficiently small to be ignored). Instruments and measurement strategies are designed to handle this issue.

B. What is the model response? Most of the earlier discussions assume the response is linear. This normally needs to be checked and validated. How S/N relates to precision and accuracy depends on this model response. This discipline has been termed "propagation of errors". For linearized systems, the calculations are easy. Many of the discussion points assume linear response.

C. What is the dominant noise in the system? You can often simplify system error calculations based on the dominant error. As a rule of thumb - if the dominant error is 3-4 times larger than the other (non-systematic) errors, then the other errors can be ignored.

D. Most measurements are indirect measurements (they depend on some sort of reference measurements - that also have errors). An example would be variable star measurements, where the measurement accuracy of the reference stars needs to be considered in the propagation of errors. These system errors can be separated into

  • Standard error of calibration - errors in the calibration curve of the systems response
  • Standard error of prediction - errors using the calibration on new measurements

Now go back to precision and accuracy.

- Precision: you can usually make measurements with a precision that exceeds the expected propagated error in the system. Precision should be assigned by analysis and is not an intrinsic property. Unfortunately this is not uniform across disciplines.

- Accuracy: how close are we to the true value. In practice for indirect calibrations (SEC, SEP above) we don't even know the true value. We know the approximated true value

I have spent years (in the past) doing this type of analysis for multivariate spectroscopic systems and for multi-sensor clusters. We can do simplifications (kind of like using the small angle approx. for image frames instead of straight trig formulas), but this is a deep rabbit hole. How deep do you want to go?


شاهد الفيديو: المحاضرة الثالة لمادة الميكانيك الاحصائي للدكتور احمد خليل (أغسطس 2022).