മൈക്രോസോഫ്റ്റ് അതിന്റെ ബിംഗ് സെർച്ച് എഞ്ചിന്റെ പുതിയ പതിപ്പ് കഴിഞ്ഞയാഴ്ച പുറത്തിറക്കിയിരുന്നു. ഒരു സാധാരണ സെർച്ച് എഞ്ചിനിൽനിന്നു വ്യത്യസ്തമായി വ്യക്തമായും കൃത്യമായും ചോദ്യങ്ങൾക്ക് ഉത്തരം നൽകുന്ന ഒരു ചാറ്റ്ബോട്ട് ഇതിൽ ഉൾപ്പെടുന്നുണ്ട്. അതിനുശേഷം ബിംഗ് ചാറ്റ്ബോട്ട് സൃഷ്ടിക്കുന്ന ചില കാര്യങ്ങൾ കൃത്യമല്ലാത്തതും തെറ്റിദ്ധരിപ്പിക്കുന്നതും തികച്ചും വിചിത്രവുമാണെന്നും ആളുകൾ പറഞ്ഞുതുടങ്ങി. അത് വികാരാധീനമായോ അല്ലെങ്കിൽ ചുറ്റുമുള്ള ലോകത്തെക്കുറിച്ചോ ബോധവാനായി മാറിയിരിക്കുന്നു എന്ന ഭയം ആളുകൾക്കിടയിൽ പ്രചരിച്ചു. ശരിക്കും എന്താണ് സംഭവിക്കുന്നതെന്ന് മനസിലാക്കാൻ, ചാറ്റ്ബോട്ടുകൾ യഥാർത്ഥത്തിൽ എങ്ങനെയാണ് പ്രവർത്തിക്കുന്നതെന്ന് അറിയേണ്ടത് പ്രധാനമാണ്.
ചാറ്റ്ബോട്ടിന് ജീവനുണ്ടോ?
ഇല്ല. ജൂണിൽ, ഗൂഗിൾ എഞ്ചിനീയർ ബ്ലേക്ക് ലെമോയിൻ, ഗൂഗിളിനുള്ളിൽ പരീക്ഷിച്ചിരിക്കുന്ന സമാനമായ ചാറ്റ്ബോട്ട് സാങ്കേതികവിദ്യ വിവേകപൂർണ്ണമാണെന്ന് അവകാശപ്പെട്ടിരുന്നു. അത് തെറ്റാണ്. ചാറ്റ്ബോട്ടുകൾ ബോധമോ, ബുദ്ധിയോ ഉള്ളതല്ല. കുറഞ്ഞപക്ഷം മനുഷ്യരെപോലെ ബുദ്ധിയുള്ളതല്ല.
എന്ത്കൊണ്ടാണ് അതിന് ജീവനുള്ളതായി തോന്നുന്നത്?
ന്യൂറൽ നെറ്റ്വർക്ക് എന്ന് വിളിക്കുന്ന ഒരുതരം ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ഉപയോഗിച്ചാണ് ബിംഗ് ചാറ്റ്ബോട്ട് പ്രവർത്തിക്കുന്നത്. ന്യുറൽ എന്നത് പദം ഉള്ളതിനാൽ കമ്പ്യൂട്ടറൈസ്ഡ് ബ്രെയിൻ എന്ന് തെറ്റിധരിക്കപ്പെടുന്നു.
ഒരു ന്യൂറൽ നെറ്റ്വർക്ക് എന്നത് ഡിജിറ്റൽ ഡാറ്റയുടെ വലിയ അളവുകൾ വിശകലനം ചെയ്തുകൊണ്ട് കാര്യങ്ങൾ പഠിക്കുന്ന ഒരു ഗണിതശാസ്ത്ര സംവിധാനം മാത്രമാണ്. ഉദാഹരണത്തിന്, ഒരു ന്യൂറൽ നെറ്റ്വർക്ക് ആയിരക്കണക്കിന് പൂച്ചകളുടെ ഫോട്ടോകൾ പരിശോധിച്ച്, പൂച്ചയെ തിരിച്ചറിയാൻ അത് പഠിക്കും.
മിക്ക ആളുകളും ദിവസവും ന്യൂറൽ നെറ്റ്വർക്കുകൾ ഉപയോഗിക്കുന്നു. ഗൂഗിൾ ഫോട്ടോസ് പോലുള്ള ഇന്റർനെറ്റ് സേവനങ്ങളിൽ പോസ്റ്റ് ചെയ്യുന്ന ചിത്രങ്ങളിലെ ആളുകളെയും വളർത്തുമൃഗങ്ങളെയും മറ്റ് വസ്തുക്കളെയും തിരിച്ചറിയുന്ന സാങ്കേതികവിദ്യയാണിത്. നിങ്ങൾ സംസാരിക്കുന്ന വാക്കുകൾ തിരിച്ചറിയാൻ ആപ്പിളിന്റെയും ആമസോണിന്റെയും വോയ്സ് അസിസ്റ്റന്റുമാരായ സിരിയെയും അലക്സയെയും അനുവദിക്കുന്നത് ഇത് തന്നെയാണ്. ഗൂഗിൾ വിവർത്തനം പോലുള്ള സേവനങ്ങളിൽ ഭാഷകളുടെ ഇടയിൽ വിവർത്തനം ചെയ്യുന്നതും ഇങ്ങനെയാണ്.
മനുഷ്യർ ഭാഷ ഉപയോഗിക്കുന്ന രീതിയെ അനുകരിക്കുന്നതിൽ ന്യൂറൽ നെറ്റ്വർക്കുകൾ വളരെ മികച്ചതാണ്. സാങ്കേതികവിദ്യ യഥാർത്ഥത്തിൽ ഉള്ളതിനേക്കാൾ ശക്തമാണെന്ന് ചിന്തിക്കുന്ന തലത്തിൽ അത് തെറ്റിദ്ധരിപ്പിക്കും.
ന്യൂറൽ നെറ്റ്വർക്കുകൾ എങ്ങനെയാണ് മനുഷ്യ ഭാഷയെ കൃത്യമായി അനുകരിക്കുന്നത്?
ഏകദേശം അഞ്ച് വർഷം മുൻപ്, ഗൂഗിൾ, ഓപ്പൺഎഐ (അടുത്തിടെ ജനപ്രിയ ചാറ്റ്ജിപിടി ചാറ്റ്ബോട്ട് പുറത്തിറക്കിയ സാൻ ഫ്രാൻസിസ്കോ സ്റ്റാർട്ടപ്പ് ) തുടങ്ങിയ കമ്പനികളിലെ ഗവേഷകർ, പുസ്തകങ്ങൾ, വിക്കിപീഡിയ ലേഖനങ്ങൾ, ചാറ്റ് ലോഗുകൾ, ഇന്റർനെറ്റിൽ പോസ്റ്റ് ചെയ്ത് മറ്റു കാര്യങ്ങൾ തുടങ്ങി എന്നിങ്ങനെ എല്ലാത്തരം ഡിജിറ്റൽ ടെക്സ്റ്റുകളിൽനിന്നും പഠിച്ച് ന്യൂറൽ നെറ്റ്വർക്കുകൾ നിർമ്മിക്കാൻ തുടങ്ങി.
ഈ ന്യൂറൽ നെറ്റ്വർക്കുകൾ ലാർജ് ലാംഗേജ് മോഡൽ എന്നാണ് അറിയപ്പെടുന്നത്. മനുഷ്യ ഭാഷയുടെ ഗണിതശാസ്ത്ര ഭൂപടം എന്ന് വിളിക്കുന്നതിനെ നിർമ്മിക്കാൻ അവർക്ക് ഡാറ്റ ഉപയോഗിക്കാൻ കഴിയും. ഈ മാപ്പ് ഉപയോഗിച്ച്, ന്യൂറൽ നെറ്റ്വർക്കുകൾക്ക് ട്വീറ്റുകൾ എഴുതുക, പ്രസംഗങ്ങൾ രചിക്കുക, കമ്പ്യൂട്ടർ പ്രോഗ്രാമുകൾ സൃഷ്ടിക്കുക, സംഭാഷണം നടത്തുക എന്നിങ്ങനെ നിരവധി ജോലികൾ ചെയ്യാൻ കഴിയും.
ഈ ലാർജ് ലാംഗേജ് മോഡൽ ഉപയോഗപ്രദമാണെന്ന് തെളിഞ്ഞിട്ടുണ്ട്. ഈ മോഡലിൽ നിർമ്മിച്ച കോപൈലറ്റ് എന്ന ഒരു ടൂളിനെ മൈക്രോസോഫ്റ്റ് വാഗ്ദാനം ചെയ്യുന്നു. ഇവയ്ക്ക് സോഫ്റ്റ്വെയർ ആപ്പുകൾ നിർമ്മിക്കുമ്പോൾ അതിന്റെ അടുത്ത കോഡ് നിർദ്ദേശിക്കാൻ കഴിയും, ടെക്സ്റ്റുകളോ ഇമെയിലുകളോ ടൈപ്പുചെയ്യുമ്പോൾ ഓട്ടോകംപ്ലീറ്റ് ടൂളുകൾ അടുത്ത വാക്ക് നിർദ്ദേശിക്കുന്ന രീതിയിലാണ് ഇത് പ്രവർത്തിക്കുന്നത്.
മറ്റു കമ്പനികളും മാർക്കറ്റിങ് മെറ്റീരിയലുകൾ, ഇമെയിലുകൾ, മറ്റു ടെക്സ്റ്റ് എന്നിവ സൃഷ്ടിക്കാൻ കഴിയുന്ന സമാന സാങ്കേതികവിദ്യ വാഗ്ദാനം ചെയ്യുന്നു. ഇത്തരത്തിലുള്ള സാങ്കേതികവിദ്യയെ ജനറേറ്റീവ് എഐ എന്നും വിളിക്കുന്നു.
കമ്പനികൾ ചാറ്റ് ചെയ്യാൻ കഴിയുന്ന ഇതിന്റെ പതിപ്പുകൾ പുറത്തിറക്കുന്നുണ്ടോ
ഉണ്ട്. നവംബറിൽ ഓപ്പൺഎഐ ചാറ്റ്ജിപിടി പുറത്തിറക്കി, അങ്ങനെ പൊതുജനങ്ങൾ ആദ്യമായി ഇതിനെക്കുറിച്ച് മനസിലാക്കുകയും ആശ്ചര്യപ്പെടുകയും ചെയ്തു. ഈ ചാറ്റ്ബോട്ടുകൾ ഒരു മനുഷ്യനെപ്പോലെ ചാറ്റ് ചെയ്യുന്നില്ലെങ്കിലും അവ പലപ്പോഴും അങ്ങനെതന്നെ തോന്നും.
എന്തുകൊണ്ടാണ് ചാറ്റ്ബോട്ടുകൾ കാര്യങ്ങൾ തെറ്റായി കാണുന്നത്?
അതിനു പ്രധാന കാരണം, അവർ വിവരങ്ങൾ പഠിക്കുന്നത് ഇന്റർനെറ്റിൽനിന്നാണ്. ഇന്റർനെറ്റിൽ എത്രമാത്രം തെറ്റായ വിവരങ്ങൾ ഉണ്ടെന്നത് അറിയാമല്ലോ? ഈ സംവിധാനങ്ങൾ ഇന്റർനെറ്റിൽ ഉള്ളത് അതേപോലെ ആവർത്തിക്കാറില്ല. അവർ പഠിച്ച കാര്യങ്ങൾ അനുസരിച്ച് സ്വന്തമായി പുതിയ വാചകം നിർമ്മിക്കുന്നു, അതിനെ എഐ ഗവേഷകർ അതിനെ “ഹാലൂസിനേഷൻ” എന്ന് വിളിക്കുന്നു.
ഇതുകൊണ്ട് ഒരേ ചോദ്യം രണ്ടുതവണ ചോദിച്ചാൽ ചാറ്റ്ബോട്ടുകൾ നിങ്ങൾക്ക് വ്യത്യസ്തമായ ഉത്തരങ്ങൾ നൽകിയേക്കാം. യാഥാർത്ഥ്യത്തിന്റെ അടിസ്ഥാനത്തിലായാലും അല്ലെങ്കിലും അവർ എന്തു ഉത്തരവും പറയും.
ചാറ്റ്ബോട്ടുകൾ ‘ഹാലൂസിനേറ്റ്’ ചെയ്യുന്നെങ്കിൽ, അത് അവരെ ചിന്താശക്തിയുള്ളതാക്കുമോ?
ഈ സംവിധാനങ്ങൾക്ക് മനുഷ്യരാണെന്ന് തോന്നിപ്പിക്കുന്ന പദങ്ങൾ ഉപയോഗിക്കാൻ എഐ ഗവേഷകർ ഇഷ്ടപ്പെടുന്നു. എന്നാൽ ഹാലൂസിനേറ്റ് എന്നതാണ് അവർ ചെയ്യുന്നതിന് ഉപയോഗിക്കുന്ന ഒരു ആകർഷകമായ പദമാണ്.
സാങ്കേതികവിദ്യ സജീവമാണെന്നോ അതിന്റെ ചുറ്റുപാടുകളെക്കുറിച്ച് ബോധവാന്മാരാണെന്നോ ഇതിനർത്ഥമില്ല. ഇത് ഇന്റർനെറ്റിൽ കണ്ടെത്തിയ പാറ്റേണുകൾ ഉപയോഗിച്ച് ടെക്സ്റ്റ് സൃഷ്ടിക്കുക മാത്രമാണ് ചെയ്യുന്നത്. മിക്ക കേസുകളിലും, ഇത് ആശ്ചര്യകരവും അസ്വസ്ഥവുമായ രീതിയിൽ പാറ്റേണുകൾ കൂട്ടിച്ചേർക്കുന്നു.
ചാറ്റ്ബോട്ടുകൾ വിചിത്രമായി പ്രവർത്തിക്കുന്നത് തടയാൻ കമ്പനികൾക്ക് കഴിയില്ലേ?
അവർ അതിനായി പ്രവർത്തിക്കുന്നുണ്ട്. ചാറ്റ്ജിപിടി ഉപയോഗിച്ച്, സാങ്കേതികവിദ്യയുടെ സ്വഭാവം നിയന്ത്രിക്കാൻ ഓപ്പൺ എഐ ശ്രമിച്ചു. ഒരു ചെറിയ കൂട്ടം ആളുകൾ സിസ്റ്റം സ്വകാര്യമായി പരീക്ഷിച്ച്, അതിന്റെ പ്രതികരണങ്ങൾ റേറ്റുചെയ്യാൻ ഓപ്പൺ എഐ അവരോട് ആവശ്യപ്പെട്ടു. അവ ഉപയോഗപ്രദമായിരുന്നോ? അവർ സത്യസന്ധരായിരുന്നോ? തുടർന്ന് ഓപ്പൺഎഐ ഈ റേറ്റിംഗുകൾ സിസ്റ്റത്തെ മെച്ചപ്പെടുത്താനും അത് എന്തുചെയ്യുമെന്നും ചെയ്യരുതെന്നും കൂടുതൽ ശ്രദ്ധയോടെ നിർവചിക്കാനും ഉപയോഗിച്ചു.
എന്നാൽ അത്തരം വിദ്യകൾ പൂർണതയുള്ളതല്ല. പൂർണ്ണമായും സത്യസന്ധമായ സംവിധാനങ്ങൾ എങ്ങനെ നിർമ്മിക്കാമെന്ന് ഇന്ന് ശാസ്ത്രജ്ഞർക്ക് അറിയില്ല. അവർക്ക് കൃത്യതയില്ലായ്മകൾ പരിമിതപ്പെടുത്താൻ കഴിയും. വിചിത്രമായ പെരുമാറ്റങ്ങൾ നിയന്ത്രിക്കാനുള്ള ഒരു മാർഗം ചാറ്റുകൾ ചെറുതാക്കുക എന്നതാണ്.
എന്നാൽ ചാറ്റ്ബോട്ടുകൾ ഇപ്പോഴും സത്യമല്ലാത്ത കാര്യങ്ങൾ പറയും. മറ്റ് കമ്പനികൾ ഇത്തരത്തിലുള്ള ബോട്ടുകൾ വിന്യസിക്കുമ്പോൾ തുടങ്ങുമ്പോൾ, തങ്ങൾക്ക് ചെയ്യാൻ കഴിയുന്നതും ചെയ്യാൻ കഴിയാത്തതും നിയന്ത്രിക്കുന്നത് എല്ലാവർക്കും സാധിക്കുന്നതല്ല.
കേഡ് മെറ്റ്സ് എഴുതിയ ഈ ലേഖനം ന്യൂയോർക്ക് ടൈംസിൽ പ്രസിദ്ധീകരിച്ചതാണ്.