loading ad...
عمان - أكد معنيون بقطاع تكنولوجيا المعلومات، أن انتشار تطبيقات الذكاء الاصطناعي شكل نقلة نوعية في عالم المحتوى الرقمي، ما يفرض مسؤولية كبيرة على صناع المحتوى لضمان الدقة والمصداقية.اضافة اعلان
وقالوا لوكالة الأنباء الأردنية (بترا)، إن انتشار وتنوع وازدياد تطبيقات الذكاء الاصطناعي يؤثر على دقة المحتوى، مؤكدين أن الذكاء الاصطناعي لم يعد مجرد تقنية مستقبلية بل أصبح جزءا أساسيا من حياتنا اليومية.
وشددوا على ضرورة رفع مستوى الوعي لدى المواطنين حول مخاطر المعلومات المضللة وكيفية التحقق من صحة المعلومات، وسن قوانين وتشريعات لتنظيم استخدام تطبيقات الذكاء الاصطناعي لحماية المجتمع من المخاطر المحتملة.
وقال وزير الاقتصاد الرقمي والريادة المهندس سامي سميرات، إن انتشار تطبيقات الذكاء الاصطناعي شكل نقلة نوعية في عالم المحتوى الرقمي، ما يفرض مسؤولية كبيرة على صناع المحتوى لضمان الدقة والمصداقية.
وأضاف أن هذه الأدوات والتطبيقات بالرغم من قدرتها على تسريع الإنتاج وتحليل البيانات وتقديم حلول مبتكرة، إلا أنها قد تنتج أحيانا محتوى غير دقيق إذا لم تخضع لرقابة العنصر البشري والتدقيق التحريري، مبينا أهمية الدور الإنساني في التحقق من صحة المعلومات وتوجيه الذكاء الاصطناعي نحو الاستخدام الواعي والمسؤول بما يضمن بقاء المعلومة الصحيحة والموثوقة في متناول المواطن ويعزز مبادئ الشفافية والدقة والثقة في بيئة التحول الرقمي وثقة المواطن في المعلومة والخدمة.
وأوضح سميرات أن الوزارة حرصت على تضمين أخلاقيات المحتوى ضمن سياساتها الوطنية، مثل السياسة الأردنية للذكاء الاصطناعي لعام 2020 والميثاق الوطني لأخلاقيات الذكاء الاصطناعي الذي أكد على مبادئ الشفافية والشمولية والخصوصية والموثوقية.
ولفت إلى ان الوزارة تعمل على تمكين الجهات الحكومية عبر مشاريع إستراتيجية ومبادرات لرفع الوعي وبناء القدرات، بما في ذلك إدراج مفاهيم الذكاء الاصطناعي في المناهج التعليمية وتدريب 3000 موظف حكومي.
من جهته، قال استشاري التحول الرقمي والذكاء الاصطناعي والتقنيات الحديثة، المهندس بلال الحفناوي، إن انتشار وتنوع وازدياد تطبيقات الذكاء الاصطناعي يؤثر على دقة المحتوى ويفرض تحديات عديدة منها، انتشار المعلومات المضللة، فمع تطور الذكاء الاصطناعي أصبحت عملية إنشاء محتوى مزيف أكثر سهولة، ما يزيد من خطر انتشار الأخبار الكاذبة والمعلومات المضللة، كما يمكن استخدام هذه التقنيات لإنشاء حملات تضليل واسعة النطاق، ما يجعل من الصعب على المستخدمين العاديين التمييز بين المعلومات الحقيقية والمزيفة.
وبين أن من ضمن التحديات، مشكلة التحيز، حيث تعتمد تطبيقات الذكاء الاصطناعي على البيانات التي يتم تدريبها عليها وإذا كانت هذه البيانات تحتوي على تحيزات فإن التطبيقات ستعكس هذه التحيزات في نتائجها ويمكن أن يؤدي ذلك إلى نشر معلومات غير دقيقة أو متحيزة ضد فئات معينة من الأشخاص، ما يزيد من التمييز وعدم المساواة.
وأضاف أن من التحديات الأخرى، صعوبة التحقق من المصدر، فقد يكون من الصعب تحديد مصدر المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، خاصة مع تطور تقنيات التزييف العميق وغيرها، وهذا يجعل من الصعب التحقق من دقة ومصداقية المعلومات ويزيد من خطر انتشار المعلومات المضللة، وأيضا التأثير على الصحافة والإعلام، إذ من الممكن أن يؤثر الذكاء الاصطناعي على جودة الصحافة والإعلام، حيث يمكن استخدامه لإنشاء تقارير وأخبار تلقائيا، وهذا قد يؤدي إلى فقدان اللمسة الإنسانية والتحليل النقدي، ولكن في الوقت نفسه، يمكن أن يساهم في تسريع وتيرة العمل الصحفي.
وتابع انه من التحديات أيضا، التحديات القانونية والأخلاقية، حيث يطرح انتشار تطبيقات الذكاء الاصطناعي تحديات قانونية وأخلاقية جديدة، مثل المسؤولية عن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وحقوق الملكية الفكرية وحماية البيانات الشخصية.
ومن الحلول المقترحة بحسب الحفناوي، تطوير أدوات وتقنيات للتحقق من صحة المحتوى المزيف وصحة المعلومات، ووضع معايير ومبادئ توجيهية وأخلاقيات لاستخدام وتطوير تطبيقات الذكاء الاصطناعي لضمان استخدامها بشكل مسؤول.
واقترح أيضا رفع مستوى الوعي لدى المواطنين والجمهور حول مخاطر المعلومات المضللة وكيفية التحقق من صحة المعلومات، مبينا أن الذكاء الاصطناعي يحمل في طياته إمكانات هائلة ولكنه يطرح أيضا تحديات كبيرة وبالتالي يجب تحقيق توازن بين الاستفادة من هذه التقنية وتجنب مخاطرها من خلال وضع ضوابط ومعايير أخلاقية وقانونية واضحة.
بدوره، قال عميد كلية الذكاء الاصطناعي في جامعة البلقاء التطبيقية، الدكتور عمر الزعبي، إن الذكاء الاصطناعي أصبح جزءا أساسيا من حياتنا اليومية، حيث تعتمد العديد من التطبيقات والمنصات الرقمية على أدوات الذكاء الاصطناعي في تقديم المعلومات وتحليل البيانات واتخاذ القرارات ومع هذا الانتشار الواسع تبرز الحاجة إلى التعامل مع هذه الأدوات بوعي لضمان دقة وصحة المحتوى الذي تنتجه.
وأضاف أن الذكاء الاصطناعي يتميز بقدرته على تحليل كميات ضخمة من البيانات، مما يعزز دقة المحتوى عبر التحقق المتقدم من المعلومات وتصفية الأخبار المضللة، كما تسهم الخوارزميات الذكية في تقديم محتوى مخصص للمستخدمين وفقا لاهتماماتهم، الأمر الذي يحسن تجربة الوصول إلى المعلومات.
وأشار الزعبي إلى أن انتشار تطبيقات الذكاء الاصطناعي التوليدية، مثل النماذج اللغوية المتطورة قد يؤدي أحيانا إلى إنتاج معلومات غير دقيقة أو منحازة، خاصة إذا كانت البيانات المستخدمة في تدريب هذه الأنظمة غير موثوقة، كما أن بعض المنصات الرقمية قد تعتمد على الذكاء الاصطناعي في توليد الأخبار والمقالات دون تدقيق بشري، ما يزيد من مخاطر انتشار المعلومات المغلوطة.
وحول أبرز التحديات التي تؤثر على دقة المحتوى الناتج عن الذكاء الاصطناعي، أوضح أن من أهمها الاعتماد المفرط على الخوارزميات دون مراجعة بشرية، بالإضافة إلى احتمال تكرار المعلومات الخاطئة نتيجة استخدام بيانات غير دقيقة في عملية التدريب.
وبين أنه لضمان تقديم محتوى موثوق، يجب على المؤسسات الإعلامية والتقنية تبني استراتيجيات تعتمد على التدقيق البشري، إلى جانب تطوير خوارزميات أكثر كفاءة في كشف التحيز والتأكد من صحة البيانات.
ولفت الزعبي إلى أن أدوات الذكاء الاصطناعي يمكن استخدامها في إنتاج محتوى لأغراض سياسية، وهو ما أصبح واقعا مع التطورات السريعة في تقنيات الذكاء الاصطناعي التوليدي، إذ تتيح هذه الأدوات إمكانية إنشاء مقالات وأخبار وصور ومقاطع فيديو، بل وحتى أصوات مزيفة، بما يخدم أجندات سياسية مختلفة، سواء لنشر الدعاية أو للتأثير على الرأي العام.
وشدد على ضرورة تحلي المستخدمين بالوعي النقدي عند التعامل مع هذه التقنيات لضمان الاستفادة من المحتوى المعتمد على الذكاء الاصطناعي دون الوقوع في فخ المعلومات غير الدقيقة.
وأشار إلى أهمية التحقق من المصادر وعدم الاعتماد على مصدر واحد فقط، ومقارنة المعلومات مع جهات رسمية وموثوقة، واستخدام أدوات التحقق المتاحة لكشف الأخبار المزيفة والمعلومات المضللة والاعتماد على منصات إعلامية معروفة تراجع محتواها قبل نشره.
وتابع انه ينبغي تجنب نشر أو مشاركة أي معلومة قبل التأكد من صحتها، مع التعرف على كيفية عمل أنظمة الذكاء الاصطناعي لفهم نقاط قوتها وضعفها، مما يساعد في التمييز بين المحتوى الصحيح والمضلل.
وأشار الزعبي إلى أن الذكاء الاصطناعي يشكل ثورة في عالم إنتاج المحتوى، لكنه في الوقت ذاته يفرض تحديات تستدعي تحقيق توازن بين الاستفادة من إمكانياته وضمان الموثوقية والدقة في المعلومات المقدمة.- (بترا- غادة حماد)
وقالوا لوكالة الأنباء الأردنية (بترا)، إن انتشار وتنوع وازدياد تطبيقات الذكاء الاصطناعي يؤثر على دقة المحتوى، مؤكدين أن الذكاء الاصطناعي لم يعد مجرد تقنية مستقبلية بل أصبح جزءا أساسيا من حياتنا اليومية.
وشددوا على ضرورة رفع مستوى الوعي لدى المواطنين حول مخاطر المعلومات المضللة وكيفية التحقق من صحة المعلومات، وسن قوانين وتشريعات لتنظيم استخدام تطبيقات الذكاء الاصطناعي لحماية المجتمع من المخاطر المحتملة.
وقال وزير الاقتصاد الرقمي والريادة المهندس سامي سميرات، إن انتشار تطبيقات الذكاء الاصطناعي شكل نقلة نوعية في عالم المحتوى الرقمي، ما يفرض مسؤولية كبيرة على صناع المحتوى لضمان الدقة والمصداقية.
وأضاف أن هذه الأدوات والتطبيقات بالرغم من قدرتها على تسريع الإنتاج وتحليل البيانات وتقديم حلول مبتكرة، إلا أنها قد تنتج أحيانا محتوى غير دقيق إذا لم تخضع لرقابة العنصر البشري والتدقيق التحريري، مبينا أهمية الدور الإنساني في التحقق من صحة المعلومات وتوجيه الذكاء الاصطناعي نحو الاستخدام الواعي والمسؤول بما يضمن بقاء المعلومة الصحيحة والموثوقة في متناول المواطن ويعزز مبادئ الشفافية والدقة والثقة في بيئة التحول الرقمي وثقة المواطن في المعلومة والخدمة.
وأوضح سميرات أن الوزارة حرصت على تضمين أخلاقيات المحتوى ضمن سياساتها الوطنية، مثل السياسة الأردنية للذكاء الاصطناعي لعام 2020 والميثاق الوطني لأخلاقيات الذكاء الاصطناعي الذي أكد على مبادئ الشفافية والشمولية والخصوصية والموثوقية.
ولفت إلى ان الوزارة تعمل على تمكين الجهات الحكومية عبر مشاريع إستراتيجية ومبادرات لرفع الوعي وبناء القدرات، بما في ذلك إدراج مفاهيم الذكاء الاصطناعي في المناهج التعليمية وتدريب 3000 موظف حكومي.
من جهته، قال استشاري التحول الرقمي والذكاء الاصطناعي والتقنيات الحديثة، المهندس بلال الحفناوي، إن انتشار وتنوع وازدياد تطبيقات الذكاء الاصطناعي يؤثر على دقة المحتوى ويفرض تحديات عديدة منها، انتشار المعلومات المضللة، فمع تطور الذكاء الاصطناعي أصبحت عملية إنشاء محتوى مزيف أكثر سهولة، ما يزيد من خطر انتشار الأخبار الكاذبة والمعلومات المضللة، كما يمكن استخدام هذه التقنيات لإنشاء حملات تضليل واسعة النطاق، ما يجعل من الصعب على المستخدمين العاديين التمييز بين المعلومات الحقيقية والمزيفة.
وبين أن من ضمن التحديات، مشكلة التحيز، حيث تعتمد تطبيقات الذكاء الاصطناعي على البيانات التي يتم تدريبها عليها وإذا كانت هذه البيانات تحتوي على تحيزات فإن التطبيقات ستعكس هذه التحيزات في نتائجها ويمكن أن يؤدي ذلك إلى نشر معلومات غير دقيقة أو متحيزة ضد فئات معينة من الأشخاص، ما يزيد من التمييز وعدم المساواة.
وأضاف أن من التحديات الأخرى، صعوبة التحقق من المصدر، فقد يكون من الصعب تحديد مصدر المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، خاصة مع تطور تقنيات التزييف العميق وغيرها، وهذا يجعل من الصعب التحقق من دقة ومصداقية المعلومات ويزيد من خطر انتشار المعلومات المضللة، وأيضا التأثير على الصحافة والإعلام، إذ من الممكن أن يؤثر الذكاء الاصطناعي على جودة الصحافة والإعلام، حيث يمكن استخدامه لإنشاء تقارير وأخبار تلقائيا، وهذا قد يؤدي إلى فقدان اللمسة الإنسانية والتحليل النقدي، ولكن في الوقت نفسه، يمكن أن يساهم في تسريع وتيرة العمل الصحفي.
وتابع انه من التحديات أيضا، التحديات القانونية والأخلاقية، حيث يطرح انتشار تطبيقات الذكاء الاصطناعي تحديات قانونية وأخلاقية جديدة، مثل المسؤولية عن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وحقوق الملكية الفكرية وحماية البيانات الشخصية.
ومن الحلول المقترحة بحسب الحفناوي، تطوير أدوات وتقنيات للتحقق من صحة المحتوى المزيف وصحة المعلومات، ووضع معايير ومبادئ توجيهية وأخلاقيات لاستخدام وتطوير تطبيقات الذكاء الاصطناعي لضمان استخدامها بشكل مسؤول.
واقترح أيضا رفع مستوى الوعي لدى المواطنين والجمهور حول مخاطر المعلومات المضللة وكيفية التحقق من صحة المعلومات، مبينا أن الذكاء الاصطناعي يحمل في طياته إمكانات هائلة ولكنه يطرح أيضا تحديات كبيرة وبالتالي يجب تحقيق توازن بين الاستفادة من هذه التقنية وتجنب مخاطرها من خلال وضع ضوابط ومعايير أخلاقية وقانونية واضحة.
بدوره، قال عميد كلية الذكاء الاصطناعي في جامعة البلقاء التطبيقية، الدكتور عمر الزعبي، إن الذكاء الاصطناعي أصبح جزءا أساسيا من حياتنا اليومية، حيث تعتمد العديد من التطبيقات والمنصات الرقمية على أدوات الذكاء الاصطناعي في تقديم المعلومات وتحليل البيانات واتخاذ القرارات ومع هذا الانتشار الواسع تبرز الحاجة إلى التعامل مع هذه الأدوات بوعي لضمان دقة وصحة المحتوى الذي تنتجه.
وأضاف أن الذكاء الاصطناعي يتميز بقدرته على تحليل كميات ضخمة من البيانات، مما يعزز دقة المحتوى عبر التحقق المتقدم من المعلومات وتصفية الأخبار المضللة، كما تسهم الخوارزميات الذكية في تقديم محتوى مخصص للمستخدمين وفقا لاهتماماتهم، الأمر الذي يحسن تجربة الوصول إلى المعلومات.
وأشار الزعبي إلى أن انتشار تطبيقات الذكاء الاصطناعي التوليدية، مثل النماذج اللغوية المتطورة قد يؤدي أحيانا إلى إنتاج معلومات غير دقيقة أو منحازة، خاصة إذا كانت البيانات المستخدمة في تدريب هذه الأنظمة غير موثوقة، كما أن بعض المنصات الرقمية قد تعتمد على الذكاء الاصطناعي في توليد الأخبار والمقالات دون تدقيق بشري، ما يزيد من مخاطر انتشار المعلومات المغلوطة.
وحول أبرز التحديات التي تؤثر على دقة المحتوى الناتج عن الذكاء الاصطناعي، أوضح أن من أهمها الاعتماد المفرط على الخوارزميات دون مراجعة بشرية، بالإضافة إلى احتمال تكرار المعلومات الخاطئة نتيجة استخدام بيانات غير دقيقة في عملية التدريب.
وبين أنه لضمان تقديم محتوى موثوق، يجب على المؤسسات الإعلامية والتقنية تبني استراتيجيات تعتمد على التدقيق البشري، إلى جانب تطوير خوارزميات أكثر كفاءة في كشف التحيز والتأكد من صحة البيانات.
ولفت الزعبي إلى أن أدوات الذكاء الاصطناعي يمكن استخدامها في إنتاج محتوى لأغراض سياسية، وهو ما أصبح واقعا مع التطورات السريعة في تقنيات الذكاء الاصطناعي التوليدي، إذ تتيح هذه الأدوات إمكانية إنشاء مقالات وأخبار وصور ومقاطع فيديو، بل وحتى أصوات مزيفة، بما يخدم أجندات سياسية مختلفة، سواء لنشر الدعاية أو للتأثير على الرأي العام.
وشدد على ضرورة تحلي المستخدمين بالوعي النقدي عند التعامل مع هذه التقنيات لضمان الاستفادة من المحتوى المعتمد على الذكاء الاصطناعي دون الوقوع في فخ المعلومات غير الدقيقة.
وأشار إلى أهمية التحقق من المصادر وعدم الاعتماد على مصدر واحد فقط، ومقارنة المعلومات مع جهات رسمية وموثوقة، واستخدام أدوات التحقق المتاحة لكشف الأخبار المزيفة والمعلومات المضللة والاعتماد على منصات إعلامية معروفة تراجع محتواها قبل نشره.
وتابع انه ينبغي تجنب نشر أو مشاركة أي معلومة قبل التأكد من صحتها، مع التعرف على كيفية عمل أنظمة الذكاء الاصطناعي لفهم نقاط قوتها وضعفها، مما يساعد في التمييز بين المحتوى الصحيح والمضلل.
وأشار الزعبي إلى أن الذكاء الاصطناعي يشكل ثورة في عالم إنتاج المحتوى، لكنه في الوقت ذاته يفرض تحديات تستدعي تحقيق توازن بين الاستفادة من إمكانياته وضمان الموثوقية والدقة في المعلومات المقدمة.- (بترا- غادة حماد)
0 تعليق