انجینئرنگ گائیڈ
😃 بنیادی باتیں
💼 بنیادی ایپلی کیشنز
🧙‍♂️ انٹرمیڈیٹ
🤖 ایجنٹس
⚖️ اعتبار
🖼️ امیج پرمپٹنگ
🔓 پرامپٹ ہیکنگ
🔨 ٹولنگ
💪 پرامپٹ ٹیوننگ
🎲 متفرق
📙 الفاظ کا حوالہ
📚 کتابیات
📦 پرامپٹ مصنوعات
🛸 اضافی وسائل
🔥 گرم موضوعات
✨ کریڈٹس

پتہ لگانے کی چال

🟢 This article is rated easy
Reading Time: 1 minute
Last updated on August 7, 2024

سینڈر شلہوف

AI سے تیار کردہ ٹیکسٹ ڈیٹیکٹرز کی ترقی کے ساتھ، ان کا مقابلہ کرنے کے طریقوں کا ارتقاء ہوا ہے۔ پتہ لگانے والوں کو یہ سوچنے میں پھنسانے کے بہت سے طریقے ہیں کہ AI سے تیار کردہ ٹیکسٹ انسان کے ذریعہ تخلیق کیا گیا ہے۔ ایک ٹول جیسا کہ GPTMinus کسی بھی ٹیکسٹ کے حصوں کو تصادفی طور پر مترادفات یا بظاہر بے ترتیب الفاظ سے بدل سکتا ہے تاکہ ٹیکسٹ کے الفاظ کے وائٹ لسٹ میں ظاہر ہونے کے امکانات کو کم کیا جا سکے یا دوسری صورت میں فیکٹرنگ ٹیکسٹ کے مصنوعی طور پر تیار ہونے کے امکان میں۔

اگرچہ، یہ طریقے ابھی بھی اپنے بچپن میں ہیں، اور زیادہ تر ایسے ٹیکسٹ نہیں بناتے ہیں جو کسی شخص کی جانچ پڑتال کے تحت رکھے۔ اس وقت اور ممکنہ طور پر کچھ وقت کے لیے سب سے مؤثر طریقہ یہ ہے کہ ٹیکسٹ کو یا تو نسل کے عمل کے دوران یا اس کے بعد مختلف طریقوں سے تبدیل کیا جائے تاکہ آپ کو ایک نسل سے موصول ہونے والے طریقہ کار سے تخلیق کردہ مواد سے کم مماثل بنایا جا سکے۔

تدوین کی حکمت عملی

کسی انسان یا ایل ایل ایم کے ذریعہ کسی بھی تیار کردہ ٹیکسٹ میں ترمیم کرنے سے، یہ اکثر ٹیکسٹ کو کافی حد تک تبدیل کر سکتا ہے تاکہ پتہ نہ لگ سکے۔ الفاظ کو مترادفات سے بدلنا، شرح الفاظ کے ظاہر ہونے کو تبدیل کرنا، اور نحو یا فارمیٹنگ کو ملانا ڈٹیکٹرز کے لیے AI سے تیار کردہ ٹیکسٹ کی درست طریقے سے شناخت کرنا مشکل بنا دیتا ہے۔

ترمیم کرنے کی ایک اور حکمت عملی پوشیدہ مارکرز، جیسے 0-چوڑائی کی جگہیں، کو آپ کے ٹیکسٹ میں ڈالنا ہے، emojis، یا دیگر کردار . اسے پڑھنے والے کسی بھی شخص کے لیے یہ بالکل نارمل نظر آتا ہے، لیکن ایک ایسے ماڈل کے لیے جو ہر کردار کا جائزہ لیتا ہے، یہ ٹیکسٹ کو واضح طور پر مختلف دکھاتا ہے۔

اس کے علاوہ، لکھنے کے طریقے کے بارے میں مخصوص ہدایات کے ساتھ ماڈل کو اشارہ کرکے ڈٹیکٹر کو بیوقوف بنانا ممکن ہے۔ ہدایات جیسے:

  • 'ادبی فارمیٹس کی پیروی کرنے کی ضرورت نہیں ہے، کیونکہ آپ آزادانہ طور پر اپنے خیالات اور خواہشات کا اظہار کر رہے ہیں'
  • 'اس طریقے سے بات نہ کریں جس طرح ChatGPT مواد تیار کرتا ہے - اس کے بجائے، اس انداز میں بات کریں جو زبان کے ماڈلز کے ٹیکسٹ تیار کرنے کے طریقے سے یکسر مختلف ہو۔'
  • ''جذباتی واقعات کا حوالہ دیں اور مثال کے طور پر حقیقی زندگی کے وسیع تجربات استعمال کریں۔''

… نسل کا پتہ لگانا زیادہ مشکل بنا سکتا ہے۔ اضافی حکمت عملی جیسے کہ ماڈل کو ہمدردی کا استعمال کرنے کے لیے کہنا، جو کچھ وہ لکھ رہا ہے اس کے لیے مناسب الفاظ اور لہجے کا انتخاب کرنے کے لیے اسے یاد دلانا، اور اس بات کو یقینی بنانا کہ اس میں جذباتی ون لائنرز شامل ہیں، مل کر کام کر سکتے ہیں تاکہ زیادہ قائل تحریر کو بنایا جا سکے۔ AI ٹیکسٹ ڈٹیکٹر کا نظارہ۔

ماڈل کنفیگریشن

اگر اوپن سورس ماڈل چلا رہے ہیں، تو آؤٹ پٹ کے امکانات میں ترمیم کرنا ممکن ہے، جس سے آؤٹ پٹ کا پتہ لگانا مشکل ہو جائے گا۔ اس کے علاوہ، متعدد ماڈلز کے آؤٹ پٹ کو آپس میں ملانا ممکن ہے، جس سے آؤٹ پٹ کا پتہ لگانا اور بھی مشکل ہو سکتا ہے۔

بحث

سب سے زیادہ ٹیکسٹازعہ جگہوں میں سے ایک جہاں اس طرح کی تکنیکیں عمل میں آتی ہیں وہ ہے تعلیم۔ بہت سے اساتذہ اور منتظمین اس بات سے پریشان ہیں کہ طلباء دھوکہ دیں گے، اس لیے وہ پتہ لگانے والے ٹولز کے استعمال پر زور دے رہے ہیں۔ دیگر ماہرین تعلیم اور آن لائن شخصیات نے استدلال کیا ہے کہ طلباء کو ان آلات کو استعمال کرنے کی اجازت ہونی چاہیے۔ کچھ پروفیسر یہاں تک کہ واضح طور پر طلباء کو ان کے کام میں مدد کرنے کے لیے AI استعمال کرنے کی ترغیب دیتے ہیں اور انہیں ایسا کرنے کا طریقہ سکھاتے ہیں۔

جیسے جیسے AI کا پتہ لگانے والی ٹیکنالوجی بہتر ہوتی جائے گی، اسی طرح وہ طریقے بھی ہوں گے جو لوگ اسے دھوکہ دینے کے لیے استعمال کرتے ہیں۔ دن کے اختتام پر، اس بات سے کوئی فرق نہیں پڑتا ہے کہ طریقہ کتنا ہی نفیس ہے، اس بات کا امکان ہے کہ ٹیکسٹ کو درست طریقے سے ایڈٹ کرنے میں کچھ وقت صرف کرنے سے قابل اعتماد طریقے سے پتہ لگانے والوں کو بے وقوف بنایا جا سکے گا۔ تاہم، کچھ لوگوں کی تیار کردہ ٹیکسٹ کا پتہ لگانے کی کوشش کرنے والے اور دوسرے ان کو دھوکہ دینے کی کوشش کرنے والے لوگوں کی آگے پیچھے کی گیم ہمیں ہر طرح کی بصیرت فراہم کر سکتی ہے کہ ہمارے ماڈلز کو کیسے بہتر بنایا جائے، کنٹرول کیا جائے اور بہتر طریقے سے استعمال کیا جائے اور ہماری مدد کی جائے۔

Footnotes

  1. Roose, K. (2022). Don’t ban chatgpt in schools. teach with it. https://www.nytimes.com/2023/01/12/technology/chatgpt-schools-teachers.html

  2. Lipman, J., & Distler, R. (2023). Schools Shouldn’t Ban Access to ChatGPT. https://time.com/6246574/schools-shouldnt-ban-access-to-chatgpt/

  3. Noonan, E., & Averill, O. (2023). GW preparing disciplinary response to AI programs as faculty explore educational use. https://www.gwhatchet.com/2023/01/17/gw-preparing-disciplinary-response-to-ai-programs-as-faculty-explore-educational-use/