scorecardresearch

ചാറ്റ്ജിപിടിയ്ക്കും തെറ്റുപറ്റാം; ചാറ്റ്ബോട്ടുകൾ വിചിത്രമായി പെരുമാറുന്നത് എന്തുകൊണ്ട്?

ഒരേ ചോദ്യം രണ്ടുതവണ ചോദിച്ചാൽ ചാറ്റ്ബോട്ടുകൾ വ്യത്യസ്തമായ ഉത്തരങ്ങൾ നൽകുന്നതിന് കാരണമിതാണ്

Microsoft Bing, Bing chatbot, Bing Chatgpt, Bing AI, Bing search, Chatgpt use, artificial intelligence, ie malayalam

മൈക്രോസോഫ്റ്റ് അതിന്റെ ബിംഗ് സെർച്ച് എഞ്ചിന്റെ പുതിയ പതിപ്പ് കഴിഞ്ഞയാഴ്ച പുറത്തിറക്കിയിരുന്നു. ഒരു സാധാരണ സെർച്ച് എഞ്ചിനിൽനിന്നു വ്യത്യസ്തമായി വ്യക്തമായും കൃത്യമായും ചോദ്യങ്ങൾക്ക് ഉത്തരം നൽകുന്ന ഒരു ചാറ്റ്ബോട്ട് ഇതിൽ ഉൾപ്പെടുന്നുണ്ട്. അതിനുശേഷം ബിംഗ് ചാറ്റ്ബോട്ട് സൃഷ്ടിക്കുന്ന ചില കാര്യങ്ങൾ കൃത്യമല്ലാത്തതും തെറ്റിദ്ധരിപ്പിക്കുന്നതും തികച്ചും വിചിത്രവുമാണെന്നും ആളുകൾ പറഞ്ഞുതുടങ്ങി. അത് വികാരാധീനമായോ അല്ലെങ്കിൽ ചുറ്റുമുള്ള ലോകത്തെക്കുറിച്ചോ ബോധവാനായി മാറിയിരിക്കുന്നു എന്ന ഭയം ആളുകൾക്കിടയിൽ പ്രചരിച്ചു. ശരിക്കും എന്താണ് സംഭവിക്കുന്നതെന്ന് മനസിലാക്കാൻ, ചാറ്റ്ബോട്ടുകൾ യഥാർത്ഥത്തിൽ എങ്ങനെയാണ് പ്രവർത്തിക്കുന്നതെന്ന് അറിയേണ്ടത് പ്രധാനമാണ്.

ചാറ്റ്ബോട്ടിന് ജീവനുണ്ടോ?

ഇല്ല. ജൂണിൽ, ഗൂഗിൾ എഞ്ചിനീയർ ബ്ലേക്ക് ലെമോയിൻ, ഗൂഗിളിനുള്ളിൽ പരീക്ഷിച്ചിരിക്കുന്ന സമാനമായ ചാറ്റ്ബോട്ട് സാങ്കേതികവിദ്യ വിവേകപൂർണ്ണമാണെന്ന് അവകാശപ്പെട്ടിരുന്നു. അത് തെറ്റാണ്. ചാറ്റ്ബോട്ടുകൾ ബോധമോ, ബുദ്ധിയോ ഉള്ളതല്ല. കുറഞ്ഞപക്ഷം മനുഷ്യരെപോലെ ബുദ്ധിയുള്ളതല്ല.

എന്ത്കൊണ്ടാണ് അതിന് ജീവനുള്ളതായി തോന്നുന്നത്?

ന്യൂറൽ നെറ്റ്‌വർക്ക് എന്ന് വിളിക്കുന്ന ഒരുതരം ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ഉപയോഗിച്ചാണ് ബിംഗ് ചാറ്റ്ബോട്ട് പ്രവർത്തിക്കുന്നത്. ന്യുറൽ എന്നത് പദം ഉള്ളതിനാൽ കമ്പ്യൂട്ടറൈസ്ഡ് ബ്രെയിൻ എന്ന് തെറ്റിധരിക്കപ്പെടുന്നു.

ഒരു ന്യൂറൽ നെറ്റ്‌വർക്ക് എന്നത് ഡിജിറ്റൽ ഡാറ്റയുടെ വലിയ അളവുകൾ വിശകലനം ചെയ്തുകൊണ്ട് കാര്യങ്ങൾ പഠിക്കുന്ന ഒരു ഗണിതശാസ്ത്ര സംവിധാനം മാത്രമാണ്. ഉദാഹരണത്തിന്, ഒരു ന്യൂറൽ നെറ്റ്‌വർക്ക് ആയിരക്കണക്കിന് പൂച്ചകളുടെ ഫോട്ടോകൾ പരിശോധിച്ച്, പൂച്ചയെ തിരിച്ചറിയാൻ അത് പഠിക്കും.

മിക്ക ആളുകളും ദിവസവും ന്യൂറൽ നെറ്റ്‌വർക്കുകൾ ഉപയോഗിക്കുന്നു. ഗൂഗിൾ ഫോട്ടോസ് പോലുള്ള ഇന്റർനെറ്റ് സേവനങ്ങളിൽ പോസ്റ്റ് ചെയ്യുന്ന ചിത്രങ്ങളിലെ ആളുകളെയും വളർത്തുമൃഗങ്ങളെയും മറ്റ് വസ്തുക്കളെയും തിരിച്ചറിയുന്ന സാങ്കേതികവിദ്യയാണിത്. നിങ്ങൾ സംസാരിക്കുന്ന വാക്കുകൾ തിരിച്ചറിയാൻ ആപ്പിളിന്റെയും ആമസോണിന്റെയും വോയ്‌സ് അസിസ്റ്റന്റുമാരായ സിരിയെയും അലക്‌സയെയും അനുവദിക്കുന്നത് ഇത് തന്നെയാണ്. ഗൂഗിൾ വിവർത്തനം പോലുള്ള സേവനങ്ങളിൽ ഭാഷകളുടെ ഇടയിൽ വിവർത്തനം ചെയ്യുന്നതും ഇങ്ങനെയാണ്.

മനുഷ്യർ ഭാഷ ഉപയോഗിക്കുന്ന രീതിയെ അനുകരിക്കുന്നതിൽ ന്യൂറൽ നെറ്റ്‌വർക്കുകൾ വളരെ മികച്ചതാണ്. സാങ്കേതികവിദ്യ യഥാർത്ഥത്തിൽ ഉള്ളതിനേക്കാൾ ശക്തമാണെന്ന് ചിന്തിക്കുന്ന തലത്തിൽ അത് തെറ്റിദ്ധരിപ്പിക്കും.

ന്യൂറൽ നെറ്റ്‌വർക്കുകൾ എങ്ങനെയാണ് മനുഷ്യ ഭാഷയെ കൃത്യമായി അനുകരിക്കുന്നത്?

ഏകദേശം അഞ്ച് വർഷം മുൻപ്, ഗൂഗിൾ, ഓപ്പൺഎഐ (അടുത്തിടെ ജനപ്രിയ ചാറ്റ്ജിപിടി ചാറ്റ്ബോട്ട് പുറത്തിറക്കിയ സാൻ ഫ്രാൻസിസ്കോ സ്റ്റാർട്ടപ്പ് ) തുടങ്ങിയ കമ്പനികളിലെ ഗവേഷകർ, പുസ്തകങ്ങൾ, വിക്കിപീഡിയ ലേഖനങ്ങൾ, ചാറ്റ് ലോഗുകൾ, ഇന്റർനെറ്റിൽ പോസ്റ്റ് ചെയ്ത് മറ്റു കാര്യങ്ങൾ തുടങ്ങി എന്നിങ്ങനെ എല്ലാത്തരം ഡിജിറ്റൽ ടെക്‌സ്‌റ്റുകളിൽനിന്നും പഠിച്ച് ന്യൂറൽ നെറ്റ്‌വർക്കുകൾ നിർമ്മിക്കാൻ തുടങ്ങി.

ഈ ന്യൂറൽ നെറ്റ്‌വർക്കുകൾ ലാർജ് ലാംഗേജ് മോഡൽ എന്നാണ് അറിയപ്പെടുന്നത്. മനുഷ്യ ഭാഷയുടെ ഗണിതശാസ്ത്ര ഭൂപടം എന്ന് വിളിക്കുന്നതിനെ നിർമ്മിക്കാൻ അവർക്ക് ഡാറ്റ ഉപയോഗിക്കാൻ കഴിയും. ഈ മാപ്പ് ഉപയോഗിച്ച്, ന്യൂറൽ നെറ്റ്‌വർക്കുകൾക്ക് ട്വീറ്റുകൾ എഴുതുക, പ്രസംഗങ്ങൾ രചിക്കുക, കമ്പ്യൂട്ടർ പ്രോഗ്രാമുകൾ സൃഷ്‌ടിക്കുക, സംഭാഷണം നടത്തുക എന്നിങ്ങനെ നിരവധി ജോലികൾ ചെയ്യാൻ കഴിയും.

ഈ ലാർജ് ലാംഗേജ് മോഡൽ ഉപയോഗപ്രദമാണെന്ന് തെളിഞ്ഞിട്ടുണ്ട്. ഈ മോഡലിൽ നിർമ്മിച്ച കോപൈലറ്റ് എന്ന ഒരു ടൂളിനെ മൈക്രോസോഫ്റ്റ് വാഗ്ദാനം ചെയ്യുന്നു. ഇവയ്ക്ക് സോഫ്റ്റ്‌വെയർ ആപ്പുകൾ നിർമ്മിക്കുമ്പോൾ അതിന്റെ അടുത്ത കോഡ് നിർദ്ദേശിക്കാൻ കഴിയും, ടെക്‌സ്‌റ്റുകളോ ഇമെയിലുകളോ ടൈപ്പുചെയ്യുമ്പോൾ ഓട്ടോകംപ്ലീറ്റ് ടൂളുകൾ അടുത്ത വാക്ക് നിർദ്ദേശിക്കുന്ന രീതിയിലാണ് ഇത് പ്രവർത്തിക്കുന്നത്.

മറ്റു കമ്പനികളും മാർക്കറ്റിങ് മെറ്റീരിയലുകൾ, ഇമെയിലുകൾ, മറ്റു ടെക്സ്റ്റ് എന്നിവ സൃഷ്ടിക്കാൻ കഴിയുന്ന സമാന സാങ്കേതികവിദ്യ വാഗ്ദാനം ചെയ്യുന്നു. ഇത്തരത്തിലുള്ള സാങ്കേതികവിദ്യയെ ജനറേറ്റീവ് എഐ എന്നും വിളിക്കുന്നു.

കമ്പനികൾ ചാറ്റ് ചെയ്യാൻ കഴിയുന്ന ഇതിന്റെ പതിപ്പുകൾ പുറത്തിറക്കുന്നുണ്ടോ

ഉണ്ട്. നവംബറിൽ ഓപ്പൺഎഐ ചാറ്റ്ജിപിടി പുറത്തിറക്കി, അങ്ങനെ പൊതുജനങ്ങൾ ആദ്യമായി ഇതിനെക്കുറിച്ച് മനസിലാക്കുകയും ആശ്ചര്യപ്പെടുകയും ചെയ്തു. ഈ ചാറ്റ്ബോട്ടുകൾ ഒരു മനുഷ്യനെപ്പോലെ ചാറ്റ് ചെയ്യുന്നില്ലെങ്കിലും അവ പലപ്പോഴും അങ്ങനെതന്നെ തോന്നും.

എന്തുകൊണ്ടാണ് ചാറ്റ്ബോട്ടുകൾ കാര്യങ്ങൾ തെറ്റായി കാണുന്നത്?

അതിനു പ്രധാന കാരണം, അവർ വിവരങ്ങൾ പഠിക്കുന്നത് ഇന്റർനെറ്റിൽനിന്നാണ്. ഇന്റർനെറ്റിൽ എത്രമാത്രം തെറ്റായ വിവരങ്ങൾ ഉണ്ടെന്നത് അറിയാമല്ലോ? ഈ സംവിധാനങ്ങൾ ഇന്റർനെറ്റിൽ ഉള്ളത് അതേപോലെ ആവർത്തിക്കാറില്ല. അവർ പഠിച്ച കാര്യങ്ങൾ അനുസരിച്ച് സ്വന്തമായി പുതിയ വാചകം നിർമ്മിക്കുന്നു, അതിനെ എഐ ഗവേഷകർ അതിനെ “ഹാലൂസിനേഷൻ” എന്ന് വിളിക്കുന്നു.

ഇതുകൊണ്ട് ഒരേ ചോദ്യം രണ്ടുതവണ ചോദിച്ചാൽ ചാറ്റ്ബോട്ടുകൾ നിങ്ങൾക്ക് വ്യത്യസ്തമായ ഉത്തരങ്ങൾ നൽകിയേക്കാം. യാഥാർത്ഥ്യത്തിന്റെ അടിസ്ഥാനത്തിലായാലും അല്ലെങ്കിലും അവർ എന്തു ഉത്തരവും പറയും.

ചാറ്റ്ബോട്ടുകൾ ‘ഹാലൂസിനേറ്റ്’ ചെയ്യുന്നെങ്കിൽ, അത് അവരെ ചിന്താശക്തിയുള്ളതാക്കുമോ?

ഈ സംവിധാനങ്ങൾക്ക് മനുഷ്യരാണെന്ന് തോന്നിപ്പിക്കുന്ന പദങ്ങൾ ഉപയോഗിക്കാൻ എഐ ഗവേഷകർ ഇഷ്ടപ്പെടുന്നു. എന്നാൽ ഹാലൂസിനേറ്റ് എന്നതാണ് അവർ ചെയ്യുന്നതിന് ഉപയോഗിക്കുന്ന ഒരു ആകർഷകമായ പദമാണ്.

സാങ്കേതികവിദ്യ സജീവമാണെന്നോ അതിന്റെ ചുറ്റുപാടുകളെക്കുറിച്ച് ബോധവാന്മാരാണെന്നോ ഇതിനർത്ഥമില്ല. ഇത് ഇന്റർനെറ്റിൽ കണ്ടെത്തിയ പാറ്റേണുകൾ ഉപയോഗിച്ച് ടെക്‌സ്‌റ്റ് സൃഷ്‌ടിക്കുക മാത്രമാണ് ചെയ്യുന്നത്. മിക്ക കേസുകളിലും, ഇത് ആശ്ചര്യകരവും അസ്വസ്ഥവുമായ രീതിയിൽ പാറ്റേണുകൾ കൂട്ടിച്ചേർക്കുന്നു.

ചാറ്റ്ബോട്ടുകൾ വിചിത്രമായി പ്രവർത്തിക്കുന്നത് തടയാൻ കമ്പനികൾക്ക് കഴിയില്ലേ?

അവർ അതിനായി പ്രവർത്തിക്കുന്നുണ്ട്. ചാറ്റ്ജിപിടി ഉപയോഗിച്ച്, സാങ്കേതികവിദ്യയുടെ സ്വഭാവം നിയന്ത്രിക്കാൻ ഓപ്പൺ എഐ ശ്രമിച്ചു. ഒരു ചെറിയ കൂട്ടം ആളുകൾ സിസ്റ്റം സ്വകാര്യമായി പരീക്ഷിച്ച്, അതിന്റെ പ്രതികരണങ്ങൾ റേറ്റുചെയ്യാൻ ഓപ്പൺ എഐ അവരോട് ആവശ്യപ്പെട്ടു. അവ ഉപയോഗപ്രദമായിരുന്നോ? അവർ സത്യസന്ധരായിരുന്നോ? തുടർന്ന് ഓപ്പൺഎഐ ഈ റേറ്റിംഗുകൾ സിസ്റ്റത്തെ മെച്ചപ്പെടുത്താനും അത് എന്തുചെയ്യുമെന്നും ചെയ്യരുതെന്നും കൂടുതൽ ശ്രദ്ധയോടെ നിർവചിക്കാനും ഉപയോഗിച്ചു.

എന്നാൽ അത്തരം വിദ്യകൾ പൂർണതയുള്ളതല്ല. പൂർണ്ണമായും സത്യസന്ധമായ സംവിധാനങ്ങൾ എങ്ങനെ നിർമ്മിക്കാമെന്ന് ഇന്ന് ശാസ്ത്രജ്ഞർക്ക് അറിയില്ല. അവർക്ക് കൃത്യതയില്ലായ്മകൾ പരിമിതപ്പെടുത്താൻ കഴിയും. വിചിത്രമായ പെരുമാറ്റങ്ങൾ നിയന്ത്രിക്കാനുള്ള ഒരു മാർഗം ചാറ്റുകൾ ചെറുതാക്കുക എന്നതാണ്.

എന്നാൽ ചാറ്റ്ബോട്ടുകൾ ഇപ്പോഴും സത്യമല്ലാത്ത കാര്യങ്ങൾ പറയും. മറ്റ് കമ്പനികൾ ഇത്തരത്തിലുള്ള ബോട്ടുകൾ വിന്യസിക്കുമ്പോൾ തുടങ്ങുമ്പോൾ, തങ്ങൾക്ക് ചെയ്യാൻ കഴിയുന്നതും ചെയ്യാൻ കഴിയാത്തതും നിയന്ത്രിക്കുന്നത് എല്ലാവർക്കും സാധിക്കുന്നതല്ല.

കേഡ് മെറ്റ്സ് എഴുതിയ ഈ ലേഖനം ന്യൂയോർക്ക് ടൈംസിൽ പ്രസിദ്ധീകരിച്ചതാണ്.

Stay updated with the latest news headlines and all the latest Explained news download Indian Express Malayalam App.

Web Title: Why do chatbots sometimes act weird heres how their technology works

Best of Express