إجابة الأسئلة

(تم التحويل من Question answering)

إجابة الأسئلة Question answering (QA) هو أحد تخصصات علوم الحاسب ( المعلوماتية) ضمن مجالات استرجاع المعلومات و معالجة اللغة الطبيعية (NLP)، والتي تهتم ببناء الأنظمة التي تجيب تلقائياً على الأسئلة التي يطرحها البشر في لغة طبيعية.[1]

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

لمحة عامة

يمكن لتطبيق إجابة الأسئلة، والذي يكون عادةً برنامج حاسب، بناء إجاباته عن طريق الاستعلام عن قاعدة بيانات مهيكلة من المعرفة أو المعلومات، وعادةً ما تكون قاعدة المعرفة. بشكل أكثر شيوعاً، يمكن لأنظمة إجابة الأسئلة الحصول على إجابات من مجموعة غير منظمة من اللغة الطبيعية (هذا حق نشر) تتضمن بعض الأمثلة على مجموعات مستندات اللغة الطبيعية المستخدمة لأنظمة الإجابة عن الأسئلة ما يلي:

يحاول البحث الذي يجيب على الأسئلة التعامل مع مجموعة واسعة من أنواع الأسئلة بما في ذلك: حقيقة، قائمة، تعريف، كيف، لماذا، أسئلة افتراضية، مقيدة لغوياً، وأسئلة متعددة اللغات.

  • تتعامل إجابة أسئلة المجال المغلق مع الأسئلة ضمن مجال معين (على سبيل المثال، الطب أو صيانة السيارات)، ويمكن أن تستغل المعرفة الخاصة بالمجال التي تمت صياغتها بشكل متكرر في الأنطولوجيا بدلاً من ذلك، قد يشير مصطلح المجال المغلق إلى موقف يتم فيه قبول نوع محدود فقط من الأسئلة، مثل الأسئلة التي تطلب معلومات وصفية بدلاً من إجرائية. تم أيضاً إنشاء أنظمة إجابة الأسئلة في سياق تطبيقات القراءة الآلية في المجال الطبي، على سبيل المثال المتعلقة بمرض الزهايمر.[2]
  • تتعامل إجابة أسئلة المجال المفتوح مع الأسئلة حول أي شيء تقريباً، ويمكن الاعتماد فقط على الأنطولوجيا العامة والمعرفة العالمية. من ناحية أخرى، عادةً ما يكون لهذه الأنظمة بيانات متاحة أكثر بكثير لاستخراج الإجابة منها.

تستخدم إجابة أسئلة متعدد الوسائط طرائق لإدخال المستخدم لإجابة أسئلة، مثل النصوص والصور.[3]


تاريخ

كان هنالك نظامان للرد على الأسئلة بوقت سابق هما BASEBALL[4] وLUNAR.[5] أجاب BASEBALL على أسئلة حول دوري البيسبول الأمريكي على مدار عام واحد. LUNAR، بدوره، أجاب على أسئلة حول التحليل الجيولوجي للصخور التي أرجعها بعثات قمر أپولو. كان كلا نظامي الإجابة على الأسئلة فعالين للغاية في المجالات المختارة. في الواقع، تم عرض LUNAR في مؤتمر علوم القمر في عام 1971 وكان قادراً على الإجابة على 90 ٪ من الأسئلة في مجاله التي طرحها أشخاص غير مدربين على النظام. تم تطوير المزيد من أنظمة الإجابة على أسئلة المجال المقيد في السنوات التالية. السمة المشتركة لجميع هذه الأنظمة هي أن لديهم قاعدة بيانات أساسية أو نظام معرفة تمت كتابته يدوياً بواسطة خبراء في المجال المختار. استخدمت القدرات اللغوية في BASEBALL و LUNAR تقنيات مشابهة لبرنامج ELIZA و DOCTOR، أول برامج chatterbot.

كان SHRDLU برنامجاً ناجحاً للإجابة على الأسئلة تم تطويره بواسطة تيري ڤينگراد في أواخر الستينيات وأوائل السبعينيات. لقد قامت بمحاكاة عمل روبوت في عالم الألعاب ("عالم المكعبات")، وقدمت إمكانية طرح أسئلة على الروبوت حول حالة العالم. مرة أخرى، كانت قوة هذا النظام هي اختيار مجال محدد للغاية وعالم بسيط للغاية مع قواعد فيزيائية كان من السهل تشفيرها في برنامج حاسب.

في السبعينيات، تم تطوير قواعد المعرفة التي استهدفت مجالات المعرفة الأضيق. أنتجت أنظمة الإجابة على الأسئلة التي تم تطويرها للتفاعل مع الأنظمة الخبيرة إجابات أكثر قابلية للتكرار وصحيحة للأسئلة داخل مجال المعرفة. هذه الأنظمة الخبيرة تشبه إلى حد بعيد أنظمة الإجابة على الأسئلة الحديثة باستثناء بنيتها الداخلية. تعتمد الأنظمة الخبيرة بشكل كبير على قاعدة المعرفة التي تم إنشاؤها وتنظيمها بواسطة الخبراء، في حين أن العديد من أنظمة الإجابة على الأسئلة الحديثة تعتمد على المعالجة الإحصائية لمجموعة نصوص لغة طبيعية كبيرة وغير منظمة.

شهدت السبعينيات والثمانينيات تطور نظريات شاملة في اللغويات الحاسوبية، مما أدى إلى تطوير مشاريع طموحة في فهم النص والإجابة على الأسئلة. أحد الأمثلة على مثل هذا النظام هو Unix Consultant (UC)مستشار يونكس ، الذي طوره روبرت ڤلنسكي في جامعة كاليفورنيا. بيركلي في أواخر الثمانينيات. أجاب النظام على الأسئلة المتعلقة بنظام التشغيل يونكس. كان لديه قاعدة معرفية شاملة يدوية الصنع في مجاله، وكان يهدف إلى صياغة الإجابة لاستيعاب أنواع مختلفة من المستخدمين. مشروع آخر هو LILOG، وهو نظام فهم النصوص الذي يعمل في مجال المعلومات السياحية في مدينة ألمانية. لم تتجاوز الأنظمة التي تم تطويرها في مشاريع UC و LILOG مرحلة العروض التوضيحية البسيطة، لكنها ساعدت في تطوير النظريات حول اللغويات الحسابية والاستدلال.

تم تطوير أنظمة متخصصة للإجابة على أسئلة اللغة الطبيعية، مثل EAGLi لعلماء الصحة والحياة، و وولفرام|ألفا، محرك المعرفة الحاسوبية عبر الإنترنت الذي يجيب على الاستفسارات الواقعية مباشرةً عن طريق حساب الإجابة من البيانات المنسقة من مصادر خارجية.[بحاجة لمصدر]

البنية

اعتباراً من عام 2001، تضمنت أنظمة الإجابة على الأسئلة نموذجاً وحدة مصنف الأسئلة التي تحدد نوع السؤال ونوع الإجابة.[6]تم اقتراح بنية متعددة الوكلاء للإجابة على الأسئلة، حيث يتم تمثيل كل مجال من قبل وكيل يحاول الإجابة على الأسئلة مع الأخذ في الاعتبار المعرفة الخاصة به؛ يتحكم الوكيل الفائق في التعاون بين وكلاء الإجابة على الأسئلة ويختار الإجابة (الإجابات) الأكثر صلة.[7]

أساليب إجابة الأسئلة

تعتمد إجابة الأسئلة بشكل كبير على البحث الجيد مجموعة نصية مكتوبة - لأنه بدون مستندات تحتوي على إجابة، لا يوجد سوى القليل من أي نظام للإجابة على الأسئلة. وبالتالي، فمن المنطقي أن تكون أحجام المجموعات الأكبر مناسبة بشكل عام لأداء أفضل للإجابة على الأسئلة، ما لم يكن مجال السؤال متعامداً مع المجموعة. تعني فكرة تكرار البيانات في المجموعات الضخمة، مثل الويب، أنه من المحتمل أن يتم صياغة شذرات من المعلومات بعدة طرق مختلفة في سياقات ووثائق مختلفة،[8] مما يؤدي إلى فائدتين:

  1. من خلال ظهور المعلومات الصحيحة في العديد من الأشكال، يتم تقليل العبء على نظام الإجابة على الأسئلة لأداء تقنيات معالجة اللغات الطبيعية المعقدة لفهم النص.
  2. يمكن تصفية الإجابات الصحيحة من إيجاب خاطئ من خلال الاعتماد على الإجابة الصحيحة لتظهر في المستندات مرات أكثر من حالات الإجابات غير الصحيحة.

تعتمد بعض أنظمة الإجابة عن الأسئلة بشكل كبير على الاستدلال الآلي.[9][10]يوجد عدد من أنظمة الإجابة على الأسئلة المصممة في پرولوگ،[11]لغة برمجة منطقية مرتبطة بـ الذكاء الاصطناعي.

إجابة سؤال المجال المفتوح

في استرجاع المعلومات، يهدف نظام الإجابة على سؤال المجال المفتوح إلى إعادة إجابة لسؤال المستخدم. الإجابة التي تم إرجاعها في شكل نصوص قصيرة بدلاً من قائمة الوثائق ذات الصلة.[12] يستخدم النظام مجموعة من التقنيات من اللغويات الحاسوبية و استرجاع المعلومات و تمثيل المعرفة للعثور على إجابات.

يأخذ النظام سؤال لغة طبيعية كمدخل بدلاً من مجموعة من الكلمات الرئيسية، على سبيل المثال، "متى يكون اليوم الوطني للصين؟" ثم يتم تحويل الجملة إلى استعلام من خلال الشكل المنطقي. إن وجود مدخلات في شكل سؤال لغة طبيعية يجعل النظام أكثر سهولة في الاستخدام، ولكن يصعب تنفيذه، حيث توجد أنواع مختلفة من الأسئلة وسيتعين على النظام تحديد السؤال الصحيح من أجل إعطاء إجابة معقولة. يعد تعيين نوع سؤال للسؤال مهمة حاسمة، حيث تعتمد عملية استخراج الإجابة بالكامل على العثور على نوع السؤال الصحيح وبالتالي نوع الإجابة الصحيح.

استخراج الكلمات الرئيسية هي الخطوة الأولى لتحديد نوع سؤال الإدخال.[13] في بعض الحالات، توجد كلمات واضحة تشير إلى نوع السؤال مباشرة، مثل "من" أو "أين" أو "كم"، تخبر هذه الكلمات النظام أن الإجابات يجب أن تكون من نوع "شخص"، "موقع"، أو "الرقم"، على التوالي. في المثال أعلاه، تشير كلمة "متى" إلى أن الإجابة يجب أن تكون من نوع "التاريخ". يمكن أيضًا استخدام علامات POS (جزء من الكلام) وتقنيات التحليل النحوي لتحديد نوع الإجابة. في هذه الحالة، الموضوع هو "اليوم الوطني الصيني"، والمسند هو "is" ومعدل الظرف هو "when"، وبالتالي فإن نوع الإجابة هو "التاريخ". لسوء الحظ، فإن بعض كلمات الاستفهام مثل "أي" أو "ماذا" أو "كيف" لا تعطي أنواع إجابات واضحة. يمكن أن تمثل كل كلمة من هذه الكلمات أكثر من نوع واحد. في مثل هذه الحالات، يجب مراعاة الكلمات الأخرى في السؤال. أول شيء يجب فعله هو العثور على الكلمات التي يمكن أن تشير إلى معنى السؤال. يمكن بعد ذلك استخدام قاموس معجمي مثل وورد نت لفهم السياق.

بمجرد تحديد نوع السؤال، يتم استخدام نظام استرداد المعلومات للعثور على مجموعة من المستندات التي تحتوي على الكلمات الأساسية الصحيحة. يمكن استخدام وسم و NP / Verb Group chunker للتحقق مما إذا كانت الكيانات والعلاقات الصحيحة مذكورة في المستندات التي تم العثور عليها. بالنسبة لأسئلة مثل "من" أو "أين"، يتم استخدام أداة التعرف على الكيان المحدد للعثور على أسماء "الشخص" و "الموقع" ذات الصلة من المستندات المستردة. يتم تحديد الفقرات ذات الصلة فقط للترتيب.

يمكن استخدام نموذج الفضاء المتجه كاستراتيجية لتصنيف الإجابات المرشحة. تحقق مما إذا كانت الإجابة من النوع الصحيح كما تم تحديده في مرحلة تحليل نوع السؤال. يمكن أيضًا استخدام تقنية الاستدلال للتحقق من صحة الإجابات المرشحة. ثم يتم منح درجة لكل من هؤلاء المرشحين وفقاً لعدد كلمات الأسئلة التي يحتوي عليها ومدى قرب هذه الكلمات من المرشح، كلما كان ذلك أفضل كلما كان أقرب. ثم تُترجم الإجابة إلى تمثيل مضغوط وهادف عن طريق التحليل. في المثال السابق، الإجابة المتوقعة هي "الأول من أكتوبر".

الإجابة على السؤال الرياضي

تم نشر نظام مفتوح المصدر للإجابة عن الأسئلة المتعلقة بالرياضيات استناداً إلى Ask Platypus و ويكي داتا في عام 2018.[14]يأخذ النظام سؤالاً باللغة الإنجليزية أو الهندية كمدخل ويعيد صيغة رياضية مسترجعة من بيانات ويكي كإجابة مختصرة. تتم ترجمة الصيغة الناتجة إلى نموذج قابل للحساب، مما يسمح للمستخدم بإدخال قيم للمتغيرات. يتم استرجاع أسماء وقيم المتغيرات والثوابت الشائعة من بيانات ويكي إذا كانت متوفرة. يُزعم أن النظام يتفوق على محرك المعرفة الحسابية التجارية في مجموعة الاختبار.

التقدم

تم توسيع أنظمة إجابة الأسئلة في السنوات الأخيرة لتشمل مجالات معرفة إضافية[15] على سبيل المثال، تم تطوير أنظمة للإجابة تلقائياً على الأسئلة الزمنية والجغرافية المكانية، وأسئلة التعريف والمصطلحات، وأسئلة السيرة الذاتية، والأسئلة متعددة اللغات، والأسئلة المتعلقة بمحتوى الصوت والصور،[16] والفيديو.[17]تشمل الأسئلة الحالية التي تجيب على موضوعات البحث ما يلي:

هزم نظام الإجابة على الأسئلة الخاص بشركة IBM، واتسن، أعظم بطلين جيوپاردي!، براد روتر و كين جننگز، بهامش كبير. [25] وقامت أبحاث الفيسبوك بإنشاء نظام DrQA الخاص بهم[26] متاح بموجب ترخيص مفتوح المصدر. تم استخدام هذا النظام للإجابة على أسئلة المجال المفتوح باستخدام ويكيپيديا كمصدر للمعرفة.[27]

المراجع

  1. ^ Philipp Cimiano; Christina Unger; John McCrae (1 March 2014). Ontology-Based Interpretation of Natural Language. Morgan & Claypool Publishers. ISBN 978-1-60845-990-2.
  2. ^ Roser Morante, Martin Krallinger, Alfonso Valencia and Walter Daelemans. Machine Reading of Biomedical Texts about Alzheimer's Disease. CLEF 2012 Evaluation Labs and Workshop. September 17, 2012
  3. ^ Mittal et al. (2011). "Versatile question answering systems: seeing in synthesis", International Journal of Intelligent Information Database Systems, 5(2), 119-142.
  4. ^ GREEN JR, Bert F; et al. (1961). "Baseball: an automatic question-answerer" (PDF). Western Joint IRE-AIEE-ACM Computer Conference: 219–224.
  5. ^ Woods, William A; Kaplan, R. (1977). "Lunar rocks in natural English: Explorations in natural language question answering". Linguistic Structures Processing 5. 5: 521–569.
  6. ^ Hirschman, L. & Gaizauskas, R. (2001) Natural Language Question Answering. The View from Here. Natural Language Engineering (2001), 7:4:275-300 Cambridge University Press.
  7. ^ Galitsky B, Pampapathi R. Can many agents answer questions better than one. First Monday. 2005;10. doi:10.5210/fm.v10i1.1204.
  8. ^ Lin, J. (2002). The Web as a Resource for Question Answering: Perspectives and Challenges. In Proceedings of the Third International Conference on Language Resources and Evaluation (LREC 2002).
  9. ^ Moldovan, Dan, et al. "Cogex: A logic prover for question answering." Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology-Volume 1. Association for Computational Linguistics, 2003.
  10. ^ Furbach, Ulrich, Ingo Glöckner, and Björn Pelzer. "An application of automated reasoning in natural language question answering." Ai Communications 23.2-3 (2010): 241-265.
  11. ^ Galitsky, Boris (2003). Natural Language Question Answering System: Technique of Semantic Headers. International Series on Advanced Intelligence. Vol. Volume 2. Australia: Advanced Knowledge International. ISBN 978-0-86803-979-4. {{cite book}}: |volume= has extra text (help)
  12. ^ Sun, Haitian; Dhingra, Bhuwan; Zaheer, Manzil; Mazaitis, Kathryn; Salakhutdinov, Ruslan; Cohen, William (2018). "Open Domain Question Answering Using Early Fusion of Knowledge Bases and Text". Association for Computational Linguistics. Brussels, Belgium: 4231–4242. arXiv:1809.00782.
  13. ^ Harabagiu, Sanda; Hickl, Andrew (2006). "Methods for using textual entailment in open-domain question answering". Association for Computational Linguistics. Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics: 905–912. doi:10.3115/1220175.1220289.
  14. ^ Moritz Schubotz; Philipp Scharpf; et al. (12 September 2018). "Introducing MathQA: a Math-Aware question answering system". Information Discovery and Delivery. Emerald Publishing Limited. 46 (4): 214–224. doi:10.1108/IDD-06-2018-0022.
  15. ^ Paşca, Marius (2005). "Book Review New Directions in Question Answering Mark T. Maybury (editor) (MITRE Corporation) Menlo Park, CA: AAAI Press and Cambridge, MA: The MIT Press, 2004, xi+336 pp; paperbound, ISBN 0-262-63304-3, $40.00, £25.95". Computational Linguistics. 31 (3): 413–417. doi:10.1162/089120105774321055. S2CID 12705839.
  16. ^ أ ب Anderson, Peter, et al. "Bottom-up and top-down attention for image captioning and visual question answering." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018.
  17. ^ Zhu, Linchao, et al. "Uncovering the temporal context for video question answering." International Journal of Computer Vision 124.3 (2017): 409-421.
  18. ^ Quarteroni, Silvia, and Suresh Manandhar. "Designing an interactive open-domain question answering system." Natural Language Engineering 15.1 (2009): 73-95.
  19. ^ Yih, Wen-tau, Xiaodong He, and Christopher Meek. "Semantic parsing for single-relation question answering." Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers). 2014.
  20. ^ Perera, R., Nand, P. and Naeem, A. 2017. Utilizing typed dependency subtree patterns for answer sentence generation in question answering systems.
  21. ^ "BitCrawl by Hobson Lane". Archived from the original on October 27, 2012. Retrieved 2012-05-29.{{cite web}}: CS1 maint: bot: original URL status unknown (link)
  22. ^ Perera, R. and Perera, U. 2012. Towards a thematic role based target identification model for question answering.
  23. ^ (2008) "The impact of semantic class identification and semantic role labeling on natural language answer extraction" in The 30th European Conference on Information Retrieval (ECIR'08).: 430–437, Springer Berlin Heidelberg. doi:10.1007/978-3-540-78646-7_40. 
  24. ^ Bahadorreza Ofoghi; John Yearwood & Liping Ma (2009). "The impact of frame semantic annotation levels, frame‐alignment techniques, and fusion methods on factoid answer processing". Journal of the American Society for Information Science and Technology. 60 (2): 247–263. doi:10.1002/asi.20989.
  25. ^ Markoff, John (2011-02-16). "On 'Jeopardy!' Watson Win is All but Trivial". The New York Times.
  26. ^ "DrQA".
  27. ^ Chen, Danqi; Fisch, Adam; Weston, Jason; Bordes, Antoine (2017). "Reading Wikipedia to Answer Open-Domain Questions". arXiv:1704.00051 [cs.CL].

للاستزادة


. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

وصلات خارجية