
ChatGPT حالا چقدر میتواند ردپای خود را پنهان کند؟
این روزها کاربران برای کارهای مختلفی سراغ چتباتها میروند؛ از نوشتن ایمیل و مقاله گرفته تا کدنویسی و خلق محتوای خلاقانه. بعضیها حتی از ChatGPT برای یادگیری زبان، مشاوره تحصیلی یا پاسخ به سوالات روزمره کمک میگیرند. با این حجم گسترده از استفاده، طبیعی است که حالا دقت روی جزئیات نگارش و سبک نوشتار کاربران بیش از پیش اهمیت پیدا کند.
یکی از نشانههای آشکار متنهای تولیدشده توسط هوش مصنوعی، استفادهٔ مداوم از خط تیره بلند («—») است. «سم آلتمن» همین چند وقت پیش در پستی در ایکس (همان توییتر سابق) فاش کرد که اگر به ChatGPT دستور بدهید در جوابهایش از این خط تیره—که انگار عادت همیشگیاش شده—استفاده نکند، بالاخره حرفتان را میشنود.
جالب اینجاست که تا پیش از این، حتی با وجود درخواست کاربر، چتبات این عادت را ترک نمیکرد و باز هم در متنهایش از همان خط تیره بلند استفاده میکرد.
حالا دیگر خیلی از کاربران، همین خط تیره—مخصوصاً وقتی بیش از حد تکرار شود—را به عنوان یکی از بزرگترین نشانههای تولیدی بودن متن توسط مدلهای زبانی بزرگ میشناسند. البته هر متنی که این علامت را داشته باشد لزوماً ساخت هوش مصنوعی نیست، اما این روزها چشمها به هر نوشتهای که با انبوهی از علائم نگارشی غیرمعمول همراه باشد، شک کرده است.
هنوز دقیقاً روشن نیست چرا مدلهای هوش مصنوعی مولد اینقدر به استفاده از خط تیره بلند علاقه دارند.
شاید یک توضیح احتمالی این باشد که مدلهای زبانی بزرگ (LLM) با حجم عظیمی از کتابها و محتوای آنلاین—مثل مقالههای علمی، پستهای انجمنهای عمومی و مطالب مشابه—آموزش دیدهاند. اگر این علامت در دادههای آموزشی به وفور دیده شود، و هیچ پرچم قرمزی هم برای محدود کردن استفاده از آن توسط مدل زده نشده باشد، طبیعی است که خروجی مدل هم آکنده از همین خط تیرهها شود.
دیدگاه خود را ثبت کنید...
آدرس ایمیل شما با توجه به قوانین حریم خصوصی منتشر نمی شود.