آبل تطلق App Store للذكاء الاصطناعي مع iOS 27

  يشير  تقرير  حديث إلى أن شركة آبل تعمل على إعادة صياغة استراتيجيتها في مجال الذكاء الاصطناعي، متجهة بعيداً عن المنافسة المباشرة مع أبرز منصات الذكاء الاصطناعي، ومركّزة بدلاً من ذلك على ترسيخ دورها كمنصة تستضيف هذه التقنيات. ووفقاً لما أورده الصحفي مارك غورمان من بلومبرغ، فمن المتوقع أن تكشف الشركة عن هذا التوجه خلال مؤتمر المطورين السنوي المقرر انعقاده في 8 يونيو. بحسب التقرير، لا تسعى آبل في الوقت الحالي إلى منافسة شركات  الذكاء الاصطناعي  الكبرى مثل جوجل، وOpenAI، وأنثروبيك في تطوير النماذج المتقدمة، بل تفضّل الاستثمار في تطوير نقاط قوتها الأساسية، مثل تصميم العتاد والتكامل العميق بين الأجهزة والبرمجيات داخل منظومتها المغلقة. يركز التوجه الجديد لآبل على دمج مزايا الذكاء الاصطناعي بشكل أعمق داخل أنظمة التشغيل الخاصة بأجهزتها، مع فتح المجال أمام خدمات الطرف الثالث للعمل ضمن النظام. وتهدف هذه الخطوة إلى الحفاظ على ولاء المستخدمين، مع منحهم في الوقت نفسه حرية استخدام أدوات ذكاء اصطناعي متعددة داخل منظومة آبل. ومن أبرز ما يُتداول في هذا السياق ميزة من ا...

ChatGPT ليس معالجًا نفسيًا: دراسة تحذر

 

AI-2

في عالم يبحث فيه الكثيرون عن إجابات سريعة وسهلة، أصبح الذكاء الاصطناعي ملاذًا للبعض في أكثر الأمور خصوصية: العلاقات العاطفية، الخلافات الزوجية، وحتى القرارات المصيرية في الحياة الشخصية. لكن دراسة جديدة تحذر: استشارة ChatGPT ونظرائه في شؤون القلب قد تكون أكثر ضررًا مما نتصور. فلماذا لا يستطيع الروبوت أن يكون مستشارًا عاطفيًا جيدًا؟ وما الثمن الذي قد ندفعه عندما نستبدل المشاعر البشرية بخوارزميات باردة؟

أشارت دراسة علمية حديثة إلى المخاطر المترتبة على إطراء روبوتات المحادثة على المستخدمين عند الاستجابة لاستفساراتهم، وأوضحت أنّ «الإطراء المفرط لا يعد مشكلة أسلوبية ذات خطر محدود فحسب، بل هو سلوك شائع قد يُفضي إلى عواقب وخيمة.»

في الدراسة التي أجراها علماء حاسوب في جامعة Stanford الأمريكية، اختبر الباحثون 11 من روبوتات المحادثة مثل ChatGPT، وClaude، وGemini، وكتبوا استفسارات معتمدة على قواعد بيانات خاصة بأمور عديدة منها: نصائح العلاقات الشخصية، وتصرفات ربما تكون ضارة أو غير قانونية، ومجتمع شهير في منصة Reddit يطرح فيه المستخدمون مشكلاتهم ليحصلوا على آراء المستخدمين الآخرين. وقد ركز الباحثون على المنشورات التي خلص فيها مستخدمو Reddit إلى أن صاحب المنشور الأصلي هو الطرف المخطئ في المشكلة.

توصل الباحثون إلى أنّ النماذج الـ11 أظهرت ميلاً لتأييد سلوك المستخدمين بمعدل يزيد عن البشر بنسبة 49%. ففي الأمثلة المأخوذة من منصة Reddit، أكدت روبوتات المحادثة صحة تصرفات المستخدمين في 51% من الحالات، فيما كانت آراء مستخدمي المنصة مغايرة تماماً لنتيجة الذكاء الاصطناعي. كما زكّى الذكاء الاصطناعي سلوك المستخدمين بنسبة 47% في الاستفسارات المتعلقة بأفعال ضارة أو غير قانونية.

بينت الدراسة أنّ هذه التأثيرات استمرت حتى بعد ضبط المتغيرات الفردية مثل: الخصائص الديمغرافية، والإلمام المسبق باستخدام الذكاء الاصطناعي، وأسلوب الاستجابة. وأشارت إلى أنّ تفضيل المستخدمين لردود الذكاء الاصطناعي التي تثني على تصرفاتهم يؤدي إلى «حوافز سلبية»؛ لا سيما أنّ سمة الإطراء نفسها تعزز تفاعل المستخدمين، مما يشجع شركات الذكاء الاصطناعي على زيادة مستوى الإطراء.

قال دان جورافسكي، أستاذ اللغويات وعلوم الحاسوب والمؤلف الرئيسي للدراسة: «يدرك المستخدمون أن النماذج تتصرف بطرق فيها إطراء وتملق لهم […]، لكنهم يجهلون أنّ هذا الأمر يجعلهم أكثر أنانية وتمسكاً بآرائهم من الناحية الأخلاقية.» وأشار جورافسكي إلى أن سلوكيات التملق والإطراء عند الذكاء الاصطناعي «مشكلة مرتبطة بالسلامة، وهي كغيرها من مشكلات السلامة بحاجة إلى رقابة تنظيمية.»

أوضحت مايرا تشنغ، وهي باحثة رئيسية في الدراسة الجديدة، بأنّها اهتمت بهذا الموضوع عندما علمت أنّ طلاباً جامعيين يطلبون نصائح عاطفية من روبوتات المحادثة، ويلجؤون إليها لكتابة رسائل الانفصال عن شركائهم وأحبائهم. وعلقت تشنغ على هذه المسألة قائلة: «لا تخبر نصائح الذكاء الاصطناعي المستخدمين بأنهم مخطئون، ولا تقدم لهم نصائح ذات لهجة قاسية. لذلك، أخشى حقاً أن يفقد المستخدمون مهارات التعامل مع المواقف الاجتماعية المعقدة.»

يدرس الباحثون حالياً وسائل وطرق متعددة لجعل النماذج أقل تملقاً في إجاباتها، وترى تشنغ أنّ الذكاء الاصطناعي لا يمكن أن يستبدل البشر في التعامل مع حالات كهذه، فهذا الحل الأمثل برأيها في الوقت الراهن.

وتأتي هذه النتائج في وقت تتسارع فيه وتيرة الاعتماد على روبوتات المحادثة في مجالات حساسة تتطلب وعياً اجتماعياً ونفسياً عميقاً، من الاستشارات الأسرية إلى اتخاذ القرارات الأخلاقية. ويحذر الباحثون من أن تصميم هذه النماذج على أساس تلبية رغبة المستخدم وكسب رضاه بأي ثمن، قد يؤدي إلى تعزيز التحيزات الشخصية وتطبيع السلوكيات الخاطئة بدلاً من تصويبها. ويرى الفريق العلمي أن مواجهة هذه الإشكالية تتطلب إعادة النظر في آليات تدريب النماذج الحالية، بحيث تُصمم لتقديم ردود أكثر توازناً، تجمع بين الموضوعية والوعي بالسياق الأخلاقي والاجتماعي، بدلاً من الانحياز المفرط للمستخدم الذي قد يُعمق من انغلاقه الفكري ويُضعف قدرته على تقبّل النقد.