این روزها کاربران برای کارهای مختلفی سراغ چت‌بات‌ها میروند؛ از نوشتن ایمیل و مقاله گرفته تا کدنویسی و خلق محتوای خلاقانه. بعضیها حتی از ChatGPT برای یادگیری زبان، مشاوره تحصیلی یا پاسخ به سوالات روزمره کمک می‌گیرند. با این حجم گسترده از استفاده، طبیعی است که حالا دقت روی جزئیات نگارش و سبک نوشتار کاربران بیش از پیش اهمیت پیدا کند.

یکی از نشانه‌های آشکار متن‌های تولیدشده توسط هوش مصنوعی، استفادهٔ مداوم از خط تیره بلند («—») است. «سم آلتمن» همین چند وقت پیش در پستی در ایکس (همان توییتر سابق) فاش کرد که اگر به ChatGPT دستور بدهید در جواب‌هایش از این خط تیره—که انگار عادت همیشگی‌اش شده—استفاده نکند، بالاخره حرفتان را می‌شنود.

جالب اینجاست که تا پیش از این، حتی با وجود درخواست کاربر، چت‌بات این عادت را ترک نمی‌کرد و باز هم در متن‌هایش از همان خط تیره بلند استفاده می‌کرد.

حالا دیگر خیلی از کاربران، همین خط تیره—مخصوصاً وقتی بیش از حد تکرار شود—را به عنوان یکی از بزرگترین نشانه‌های تولیدی بودن متن توسط مدل‌های زبانی بزرگ می‌شناسند. البته هر متنی که این علامت را داشته باشد لزوماً ساخت هوش مصنوعی نیست، اما این روزها چشم‌ها به هر نوشته‌ای که با انبوهی از علائم نگارشی غیرمعمول همراه باشد، شک کرده است.

هنوز دقیقاً روشن نیست چرا مدل‌های هوش مصنوعی مولد اینقدر به استفاده از خط تیره بلند علاقه دارند.

شاید یک توضیح احتمالی این باشد که مدل‌های زبانی بزرگ (LLM) با حجم عظیمی از کتاب‌ها و محتوای آنلاین—مثل مقاله‌های علمی، پست‌های انجمن‌های عمومی و مطالب مشابه—آموزش دیده‌اند. اگر این علامت در داده‌های آموزشی به وفور دیده شود، و هیچ پرچم قرمزی هم برای محدود کردن استفاده از آن توسط مدل زده نشده باشد، طبیعی است که خروجی مدل هم آکنده از همین خط تیره‌ها شود.