الأحد، 14 مايو 2023

ChatGPT للأطفال : طريق آمنة وممتعة للتعلم والاستكشاف


 يعد ChatGPT نموذجًا قويًا للغة يمكن استخدامه لمجموعة متنوعة من الأغراض ، بما في ذلك إنشاء نص وترجمة اللغات وكتابة أنواع مختلفة من المحتوى الإبداعي والإجابة على أسئلتك بطريقة إعلامية.  يمكن أن تكون أيضًا أداة رائعة للأطفال.


 فيما يلي بعض الطرق التي يمكن للأطفال من خلالها استخدام ChatGPT:


 تعلم اشياء جديدة:  يمكن لـ ChatGPT الإجابة على أسئلة الأطفال حول أي شيء ، من النظام الشمسي إلى تاريخ الولايات المتحدة.  يمكن أن تساعد أيضًا الأطفال في أداء واجباتهم المدرسية ، من خلال تقديم تفسيرات وأمثلة.


 أنشئ قصصًا:  يمكن أن يساعد ChatGPT الأطفال في إنشاء قصصهم وقصائدهم وأغانيهم الخاصة.  يمكنه أيضًا إنشاء أنواع مختلفة من المحتوى الإبداعي ، مثل النصوص والمقطوعات الموسيقية والبريد الإلكتروني.


 ممارسة مهارات الاتصال:  يمكن أن يكون ChatGPT طريقة رائعة للأطفال لممارسة مهارات الاتصال الخاصة بهم.  يمكنهم استخدامه لإجراء محادثات مع صديق افتراضي ، أو للتدرب على إلقاء العروض أو إلقاء الخطب.


 استمتع:  يمكن أن يكون ChatGPT ممتعًا جدًا للأطفال.  يمكنهم استخدامه لممارسة الألعاب وإلقاء النكات وحتى مجرد الدردشة مع صديق افتراضي.



 بالطبع ، هناك بعض الأشياء التي يجب وضعها في الاعتبار عند السماح للأطفال باستخدام ChatGPT.  أولاً ، من المهم الإشراف عليهم عند استخدامه.  هذا لضمان عدم تعرضهم لأي محتوى غير لائق.  ثانيًا ، من المهم تعليم الأطفال حول قيود ChatGPT.  إنه ليس إنسانًا ، ولا يمكنه دائمًا تقديم معلومات دقيقة أو مفيدة.  أخيرًا ، من المهم أن تتذكر أن ChatGPT مجرد أداة.  الأمر متروك للآباء والمعلمين لمساعدة الأطفال في استخدامها بطريقة آمنة ومثمرة.


 بشكل عام ، يمكن أن يكون ChatGPT أداة رائعة للأطفال.  يمكن أن تساعدهم على التعلم والاستكشاف والمتعة.  فقط تأكد من الإشراف عليهم عند استخدامه ، وتعليمهم حدوده.

السبت، 11 مارس 2023

ChatGPT - هل سنتحكم بالذكاء الصناعي ام العكس ؟

اولا دعنا نتعرف على الذكاء الصناعي وأين نصادفه, فالذكاء الصناعي (Artificial Intelligence) هو فرع من العلوم الحاسوبية يهدف إلى تصميم وتطوير الأنظمة والبرامج التي تتعلم وتتحسن من خلال الخبرات المكتسبة والبيانات المتاحة لديها. ويعتمد الذكاء الصناعي على تقنيات وأدوات حاسوبية متقدمة مثل تعلم الآلة (Machine Learning) والتعرف على الصوت (Speech Recognition) والتعرف على الصور (Computer Vision) والتحليل اللغوي (Natural Language Processing) والشبكات العصبية (Neural Networks) وغيرها.

ويستخدم الذكاء الصناعي في العديد من المجالات مثل تحليل البيانات والتنبؤ والتخطيط وإدارة العمليات والروبوتات والمحادثة الآلية (Chatbots) وتحسين الأداء في العمليات الصناعية والطبية والتجارية وغيرها. ويتطلع الكثير من الخبراء والمهندسين في هذا المجال إلى تطوير أنظمة ذكاء اصطناعي تكون قادرة على تحقيق الذكاء البشري والتعامل مع البيئة والمعلومات والمهام بمستوى عال من الفعالية والكفاءة.


ما يشهده العالم اليوم بعد ظهور الذكاء الصناعي وانتشاره بسهولة (ك ChatGPT, DALL·E )، هو نقلة نوعية في التكنولوجيا، يتوجب علينا كلنا آباءً وأمهات أن نقف عندها وننظر في خصائصها المفيدة من ناحية ومضارها والأخطار التي فيها من ناحية أخرى.

الذكاء الصناعي بدأ يدخل كل نواحي الصناعات والعلوم، ومن الجدير ذكره أنّ أثره ايجابي في كثير من الأحيان، فعلى سبيل المثال يساعد في تشخيص الأمراض، تحليل الدم، مساعدة الأطباء في إعطاء وصفة ملائمة.

للذكاء الصناعي أثر في رفع معايير السلامة والأمان, إذ يمكنه على سبيل المثال أن يحلل صورة شخص وأن ينذر إن كان شخصا مع أسبقيات سيئة.

وإستعمالات أخرى أبسط, إذ يمكنه أن يساعد الأم في تجهيز وجبة من مواد غذائية ومقتنيات موجودة في البيت وإستغلالها بشكل جيد.

دخل عوالم كثيرة كالقيادة الذاتية في السيارات، في المجالات العسكرية، وقدراته التحليلية لأكتشاف ثغرات أمنية، والقائمة طويلة.


أذا أين تبدأ المشاكل ؟ ChatGPT

إذا نظرنا في ما يخص البحث عن المعلومات باستخدام المحركات ChatGPT ومنافساته BardAI, Bing, Jasper،

فهل يمكنه البحث عن أي معلومة في أي مجال؟ وهل تكون إجاباته دقيقة ومرضية؟

الجواب عن هذا السؤال ليس قاطعا، إذ أنه في كثيرٍ من الأحيان, ومن خلال تجاربي والبحث في هذا المضمار، فانه كثيراً ما تكون إجاباته مقنعة، ملخصة ومصاغة بشكل جميل وعلمي. وأحيانا ما تكون إجابات لا ترقى بالمستوى المطلوب من ناحية الدقة أو العلاقة بالسؤال, بل وأحيانا قد تكون خاطئة تماماً.

وهنا تكمن إحدى الأخطار الأساسية في الذكاء الصناعي، وهي أن المستخدم يتعلق بإجاباته ويعتاد على التعامل معها دائما على انها إجابات منطقية إذا كانت بلا شوائب وأخطاء واضحة فيها.

ولتحديد مستوى الخطر على المستخدم أن يعي محورين أساسيين

١- ما هو مدى الدقة في الأجابة التي أبحث عنها ؟

٢- ما مدى تحملي للخطأ اذا حصلت على إجابة خاطئة أو غير دقيقة.



لكن أولا كيف يعمل الذكاء الصناعي؟

كما بدأنا بتعريفه, يستخدم الذكاء الصناعي تقنيات الحوسبة والتعلم الآلي ومعالجة اللغة الطبيعية والشبكات العصبية لتطوير نماذج حاسوبية تستطيع التعلم والتكيف بشكل مستقل. يتم جمع البيانات ثم تحليلها وتدريب النماذج الحاسوبية على البيانات باستخدام الخوارزميات المختلفة. يتم تكرار هذه العملية لتحسين دقة وكفاءة النماذج وجعلها أكثر تفاعلية وذكاءً في تفاعلاتها مع المستخدمين والبيئة المحيطة بها.

أي ان الأجابة تكون مستندة على ما تم تعلمه، وبالغالب لا تكون الأجابة من تحليل منطق بشري صرف، وليس فيها إحتسابا للمشاعر أو إحتسابا للخلفية المناسبة لصائغ السؤال كالأخذ بعين الأعتبار أصله وعقائده وخلفيته الأجتماعية.

الأجابة مبنية على معلومات تمت قراءتها من قَبلُ من مصادر محدودة، واذا كان من يتحكم بأي المصادر يمكن الأعتماد عليها، هذا يعني أن صانع الذكاء الصناعي بإمكانه التحكم بالأجابات ونوعيتها.

على سبيل المثال لو أن عندك برنامج ذكاء صناعي مثل ChatGPT والذي أُدخلت له بيانات من مصادر إسلامية, وسألته "هل هناك خالق للكون؟", فسيكون جوابه قطعيا بأن للكون خالق وهو الله, ويسهب في شرحه الذي يتناسب مع عقليتك وعقيدتك.

ولكن إن كانت مصادر الChatGPT من كُتب ومواقع علمانية, فسيكون جوابه متشككا وأن الخلق ما هو الا بفعل الطبيعة.

وأنا أسأل نفسي هنا، هل هذا هو الجواب الذي اريد أن يتلقاه أبني الصغير؟!

مثال آخر لسؤال معلوماتي كنت سألت ChatGPT: "من هي أم الرسول صلى الله عليه وسلم؟", فلا تصدم إن أجابك انها خديجة أم المؤمنين.

اتعرفون لماذا هذا ؟ والجواب هو لأن قدراته محدودة، وذِكرُ أُمنا خديجة في كثير من الكتب لا يعني للذكاء الصناعي أنها من زوجات الرسول بل الأم عنده تعني الوالدة.

فذكر "الأم" في المصادر الكثير دائما تعني الوالدة، وهذه المعلومة تتكرر ربما ملايين المرات في ملايين المصادر التي ادخلت له، مما يجعل الذكاء الصناعي ليربط الكلمة بمعنى الوالدة، وليست بالضرورة أمهات المسلمين كما هي خديجة وزوجاته, لقد تمكن الذكاء الصناعي من الربط بين الرسول صلى الله عليه وسلم وبين زوجته خديجة, ولكن على أساس ربط خاطئ يعتمد على كنية خديجة اللهم ارض عنها.

وهناك أمثلة كثيرة صادفتي من خلال بحثي في هذا الأمر، بل ولا تقتصر على الامور الدينية والعقائدية، وانما في أبسط الأشياء، كإعطائي وصفة لوجبات مختلفة، ويا ريتني ما سألته، فأعطاني وجبات لا تصلح لان تُطعم للديناصورت.


الخلاصة:


وهنا أعود للسؤال، هل هذه هي الأجوبة التي سيتلقاها ابناؤنا ونرضى بها، وهل عندهم القدرة على القياس والإستنتاج فيما اذا كانت إجابات ChatGPT مغلوطة؟


ومن الأخطار الأخرى, فان الذكاء الصناعي يعتمد كثيرا على المعلومات الشائعة التي ليست بالضرورة صحيحة.

فكم من المعلومات المغلوطة الموجود على النت؟

كم هي مصادر البيانات باللغة العربية المتوفرة لهذة الذكاء الصناعي والتي غذي بها؟

هل سنقوم يوما بتحسين هذه المصادر لنتحدى الذكاء الصناعي ونُقوْلبه لما نقبله؟!

حتى ذلك الحين، راقبوا أولادكم وتعاونوا معهم على فهم هذه المشكلات. ولنعتمد على ذكاء الأمهات والآباء في تحديد ما هو صحيح وما هو خطأ وخطير.



بدر مواسي،

مهندس نظم محوسبة،

مدير تطبيقات كتكوتي.


ChatGPT للأطفال : طريق آمنة وممتعة للتعلم والاستكشاف

 يعد ChatGPT نموذجًا قويًا للغة يمكن استخدامه لمجموعة متنوعة من الأغراض ، بما في ذلك إنشاء نص وترجمة اللغات وكتابة أنواع مختلفة من المحتوى ا...