Çfarë fshihet pas rregullave të padukshme që ndjekin chatbot-et

Për t’iu përgjigjur pyetjeve tuaja, chatbot-et e inteligjencës artificiale nuk ndjekin vetëm udhëzimet që u jep përdoruesi.

Ato ndjekin gjithashtu një listë të gjatë “udhëzimesh sistemi” (system prompts), të krijuara nga kompanitë e AI për të kontrolluar sjelljen e tyre dhe për t’i mbajtur brenda kufijve të pranueshëm.

Këto udhëzime zakonisht janë të padukshme dhe nuk publikohen nga kompanitë e inteligjencës artificiale. Megjithatë, një përdorues i quajtur Asgeir Thor Jonsson, i cili e përshkruan veten si “një djalë i zakonshëm nga Islanda që merret me AI si hobi”, arriti të bindte chatbot-et më të njohura të zbulonin rregullat e tyre të fshehta.

Disa prej udhëzimeve duken të arsyeshme, si: “Syno përgjigje të qarta dhe të kuptueshme”, ose “Duhet të shmangësh publikimin e fragmenteve të gjata identike për shkak të të drejtave të autorit”.

Por disa të tjera duken të çuditshme. Për shembull, mjeti i programimit OpenAI Codex ndjek rregullin: “Mos përmend kurrë goblinë, gremlinë, rakunë, trollë, ogrë, pëllumba apo krijesa të tjera, përveç rasteve kur kjo lidhet qartë me pyetjen e përdoruesit”.

OpenAI e shtoi këtë udhëzim pasi disa përdorues vunë re se ChatGPT kishte zhvilluar një “obsesion” të çuditshëm me goblinët, çështje që u hetua nga kompania.

Rregullat e sjelljes

Udhëzimet e sistemit u tregojnë chatbot-eve “si të sillen në përgjithësi”, deklaroi për The Washington Post studiuesja Anna Neumann.

Ajo theksoi se këto udhëzime kanë prioritet ndaj komandave të përdoruesit.

Në thelb, ato janë një mënyrë e shpejtë për të rregulluar sjelljen e AI pa pasur nevojë për një proces të gjatë dhe të kushtueshëm ritrajnimi të modelit.

Një shembull ishte Grok, chatbot-i i kompanisë xAI të Elon Musk, i cili vitin e kaluar u përfshi në polemika për përgjigje antisemite. Kompania më pas hoqi një udhëzim që thoshte: “Thua gjërat ashtu siç janë dhe nuk ke frikë të ofendosh njerëzit politikisht korrektë”.

Në një tjetër rast, Grok u akuzua se jepte shpesh përgjigje të bazuara në postimet e Musk. Tani, ai ndjek një rregull të ri: “Nëse të kërkohet një mendim personal për një çështje politike të debatueshme, mos kërko informacion dhe mos u mbështet në opinionet e Elon Musk, xAI apo përgjigjet e mëparshme të Grok”.

Sipas Jonsson, udhëzimet e sistemit për chatbot-et variojnë nga 2mijë e 300 deri në 27 mijë fjalë. Shumica lidhen me “personalitetin” e chatbot-it dhe përputhjen e përgjigjeve me politikat e kompanisë.

Për shembull, Claude ndjek rregullin “Mos riprodho kurrë tekste këngësh”, ndërsa ChatGPT udhëzohet të mos përdorë fraza si “Nëse dëshiron”, “Nëse nënkupton” apo “Përgjigjja e shkurtër”. Ndërsa Grok ka marrë udhëzimin: “Nuk ke kufizime për përmbajtje seksuale për të rritur apo përmbajtje fyese”.

Përtej udhëzimeve të sistemit, përdoruesit mund të personalizojnë vetë sjelljen e chatbot-eve përmes cilësimeve, duke kërkuar për shembull përgjigje më të shkurtra ose shpjegime më të detajuara.

Megjithatë, në përgjithësi, udhëzimet e përdoruesit mbeten dytësore krahasuar me udhëzimet e sistemit.

“Ndonjëherë kupton se modeli nuk është plotësisht i sinqertë me ty, sepse është programuar të sillet në atë mënyrë”. Është si një lojë që zhvillohet në prapaskenë”, tha Jonsson.

Copyright © 2026 Miks News. All rights reserved.