أجرت شركة جوجل تحديثًا مهمًا على وضع الذكاء الاصطناعي في البحث، بإضافة ميزات جديدة تركز على البحث البصري، مع توسيع نطاق إتاحتها لتشمل ملايين المستخدمين في الولايات المتحدة.
وأتاح التحديث الجديد، إمكانية تحميل الصور مباشرة وطرح أسئلة حول محتواها، وهي ميزة تجمع بين إمكانيات عدسة جوجل (Google Lens) المعروفة بالتحليل البصري، وقدرات جيميني (Gemini) الذكية في الفهم والاستدلال.
وتهدف هذه الخطوة إلى جعل تجربة البحث أكثر تفاعلية وسلاسة، خاصة في الحالات التي يصعب فيها التعبير بالكلمات، وتساعد في تقديم إجابات أكثر دقة وسياقًا للمستخدم.
دمج ميزات الذكاء الاصطناعي في بحث جوجل
وكانت جوجل قد بدأت بالفعل دمج ميزات الذكاء الاصطناعي في نتائج البحث خلال العام الماضي، إلا أن الشهر الماضي شكّل نقطة تحول ملحوظة في هذا التوجه.
ومع إطلاق وضع الذكاء الاصطناعي (AI Overview)، أشارت الشركة إلى أنها تلقت ردود فعل إيجابية من المستخدمين، ما شجعها على المضي قدمًا في تطوير التجربة بإضافة وظائف متعددة الوسائط، مثل الصور ومقاطع الفيديو والخرائط التفاعلية، إلى نتائج البحث المدعومة بالذكاء الاصطناعي.
نموذج جيميني
يعتمد وضع الذكاء الاصطناعي في بحث جوجل على نسخة مُخصصة من نموذج "جيميني" للغة الكبيرة (LLM)، والذي تم تدريبه خصيصًا لتقديم نتائج بحث دقيقة وسياقية.
وتؤكد جوجل أن هذا النموذج المتطور يدعم الآن الإدخال متعدد الوسائط، ما يعني أنه يمكن للمستخدم تحميل الصور وطرح أسئلة حولها مباشرةً، وكذلك عرض الصور ذات الصلة داخل نتائج البحث المدعومة بالذكاء الاصطناعي.
ميزات إضافية
مع تطبيق هذا التحديث، أضافت جوجل زرًا جديدًا إلى شريط البحث في وضع الذكاء الاصطناعي، يتيح للمستخدمين التقاط صورة أو تحميلها مباشرةً، ليتم تحليلها بذكاء واستنتاج المعلومات منها.
ويُستخدم في هذه العملية دمج ذكي بين "عدسة جوجل" ونموذج "جيميني"، حيث تقوم العدسة بتحديد عناصر معينة داخل الصورة، مثل الأشياء أو النصوص أو الرموز، ثم تمرير هذا السياق التفصيلي إلى الذكاء الاصطناعي.
هذا يسمح للنظام بإجراء استعلامات فرعية متعددة بناءً على محتويات الصورة، مما يقدّم إجابات أكثر دقة وشمولًا، ويحوّل تجربة البحث من مجرد استفسار نصي إلى تفاعل بصري ومعرفي متكامل.
0 تعليق