Dark versionDefault version
mohammad-awwad2

Mohammad Awwad

IT and Digital Marketing Professional

ماذا تخبرنا السياسة الجديدة التي تنتهجها جوجل عن انشاء المحتوى باستخدام الذكاء الصناعي ؟

حتى الآن ربما كنت قد استخدمت واحدة من أدوات A.I. هناك مثل شاتاغبت أو بارد.

وربما قمت حتى بإنشاء محتوى باستخدام هذه الأدوات.

اتخذ جوجل عموما موقفا بأنه يتفق مع المحتوى الذي كتبه A.I. ما دام يفيد الناس ولا يركز على نتائج البحث.

لكنني اعتقد ان ذلك سيتغير ، وقد بدأ يحدث بالفعل . 

سياسة المركز في جوجل

حَدثتُ جوجل للتو سياسة مركزها التجاري مع ما يتعلق بخصوص المحتوى المنشئ على تقنيه الذكاء الصناعي

المضمون الآلي: لا نسمح بإجراء استعراضات يتولد أساساً عن برنامج آلي أو تطبيق استخباري اصطناعي. إذا كنت قد حددت مثل هذا المحتوى، فإنه يجب أن يكون معرّفاً على أنه سخام في تغذية الخاص بك باستخدام وصف <is_spam>.

وبعبارة أخرى، يُعتبر المحتوى الذي تولّده شركة A.I. للاستعراضات رسائل بريدية.

وهذا يجعل من المنطقي لماذا يفعلون هذا. إنهم يريدونك أن تترك استعراضاً “حقيقياً”. وهو ما يعطي الزبائن المحتملين فكرة عما إذا كان ينبغي لهم التعامل مع شركة معينة أو شراء منتج معين.

ولا يعطي الاستعراض الذي يجريه أي. آي. أي. الزبائن المحتملين نفس نوع التغذية المرتدة التي يعطيها استعراض خطي بشري.

لكن أراهن أنه لن يتوقف هناك…

A.I. يمكن أن تسفر عن نتائج غير دقيقة

على الرغم من أن A.I. كبيرة، لديها عيوبها. ولا يغيب عن البال أن نواتجها تستند إلى المدخلات.

 

الإدخالات عادة ما تكون الشبكة الكاملة التي تقوم بتخريدها ونحن نعلم جميعاً أن الكثير من المحتوى هناك غير دقيق والذي يمكن أن يخلق نواتج سيئة بواسطة A.I.

وهذا لا يعني بالضرورة أنها ستتحسن بمرور الوقت. على سبيل المثال، وجدت دراسة ستانفورد أن شاتاغبت انتقل من الإجابة على سؤال رياضيات بسيط بدقة 98٪ من الوقت إلى في نهاية المطاف فقط 2٪ من الوقت.

وبعبارة أخرى، أصبح الوضع أسوأ مع مرور الوقت.

مثال آخر لعدم الدقة مع A.I. هو أن الأطباء عبر 17 تخصصا طرح 284 سؤالا طبيا على شاتغبت. وجدوا أنه كان لديه دقة 92%.

قد تكون 92% من A في المدرسة، ولكن عندما تتعامل مع النصائح الطبية، فإن النصائح الخاطئة قد تؤذيك أو حتى تقتلك.

إذاً، ماذا نعتقد أن (غوغل) سيفعل؟

على الرغم من أن محركات البحث ليس لديها مشكلة مع المحتوى توليد A.I.، فإنها سوف تريد السيطرة على ما يمكن أو لا يمكن استخدامها ل… على الأقل عندما يتعلق الأمر بنتائج البحث.

على سبيل المثال، أشك في أنهم سيرغبون بعرض محتوى A.I. المولّد لأموالك، ومواضيع حياتك.

ومن حيث الجوهر، فإن المشورة المالية أو المشورة الطبية أو أي شيء إذا وجد غير دقيق يمكن أن يضر بشخص ما.

ومثلما لا يريدون ان تُولِّد مجلة A.I. مراجعات ، فهم لا يريدون ان تُولِّد مجلة A.I. محتوى على المدى البعيد للمحتوى الذي يمكن ان يضر بشخص ما .

وعلى الجانب الآخر، لا أعتقد أنهم سيهتمون بنفس القدر إذا كانت قطعة A.I. عن “كيف تربط ربطة عنق” قد أُلغيت. لأن الحالة الأسوء، قد تجعلك تبدو سيئاً إذا لم تكن ربطة عنقك مستقيمة أو كانت غير متساوية إلى حد ما.

 

ثالثاً – استنتاج

إذا كنت تخلق المحتوى من خلال A.I. تأكد من أن لديك مراجعة بشرية لذلك. وبهذه الطريقة يمكنك ان تضمن انها دقيقة وتزود الآخرين بأكبر قيمة .

نحن نجد اتجاهاً كبيراً في الشركات التي تعمل على استخدام تكنولوجيا A.I. لجميع أنواع المحتوى. وعلى المدى الطويل، نعتقد أن خوارزمياتهم ستفضّل المحتوى الخطي البشري لأنه سيصبح نادر.

A.I. يحتاج إلى مدخلات بشرية وأفضل شكل لذلك هو المحتوى المكتوب البشري. وبالتالي، نعتقد أن الخوارزميات ستركز على المحتوى الخطي البشري. وحتى لو استخدمت A.I. لبدء عملية الكتابة يمكنك الحصول على تعديل بشري لها.

لذا، السؤال هو، كم مقدار محتوى الخاص بك سيكون A.I. توليد؟

Leave A Comment

Your email address will not be published. Required fields are marked *