കാലിഫോര്ണിയ: തങ്ങളുടെ സെര്ച്ച് എഞ്ചിനുകളില് സെമിറ്റിക് വിരുദ്ധതയുണ്ടെന്ന വാദങ്ങളോട് ഓട്ടോ കംപ്ലീറ്റ് നിര്ദ്ദേശങ്ങളില് മാറ്റങ്ങള് വരുത്തി കൊണ്ട് ഗൂഗ്ള് പ്രതികരിച്ചു. ഇംഗ്ലീഷില് ‘ജൂതന്മാര്’ എന്ന് തിരഞ്ഞാല് ‘ദുഷിച്ചത്’ എന്നര്ത്ഥം വരുന്ന ഇംഗ്ലീഷ് പദമാണ് സാധാരണയായി തുടര്ന്ന് വന്നിരുന്നത്. അതുപോലെ ‘സ്ത്രീകള്’, ‘മുസ്ലിംകള്’ എന്ന് തിരഞ്ഞാലും ഓട്ടോകംപ്ലീറ്റ് സജ്ജഷന് അനുസരിച്ച് ‘ദുഷിച്ചത്’ ‘ചീത്തത്’ എന്നര്ത്ഥം വരുന്ന ഇംഗ്ലീഷ് പദങ്ങളാണ് തുടര്ന്ന് വന്നിരുന്നത്.
ജൂതന്മാരെ കുറിച്ചും, സ്ത്രീകളെ കുറിച്ചും സെര്ച്ച് ചെയ്യുമ്പോള് ഓട്ടോകംപ്ലീറ്റ് സജ്ജഷന് പ്രകാരം തുടര്ന്ന് വന്നിരുന്ന നിഷേധാത്മക പദങ്ങള് ഈ ആഴ്ച്ചയുടെ തുടക്കത്തില് ഗൂഗ്ള് നീക്കം ചെയ്തിരുന്നെങ്കിലും, ‘മുസ്ലിംകള്’ എന്ന് തിരഞ്ഞാല് പഴയ പദങ്ങള് തന്നെയാണ് തുടര്ന്ന് വരുന്നത്.
‘വെള്ളിയാഴ്ച്ച സംഭവം ശ്രദ്ധയില്പ്പെട്ട് മണിക്കൂറുകള്ക്കുള്ളില് തന്നെ ഞങ്ങള് നടപടിയെടുത്തിരുന്നു. വെബ് ലോകത്തെ ഉള്ളടക്കത്തിന്റെ പ്രതിഫലനമാണ് ഞങ്ങളുടെ തിരച്ചില് ഫലങ്ങള്. അതായത്, ചില സമയങ്ങളില് വൈകാരിക വിഷയങ്ങളെ ഓണ്ലൈനില് അരോചകമായി അവതരിപ്പിക്കുന്നത് തിരച്ചില് ഫലങ്ങളെ ബാധിക്കും.’ ഗൂഗ്ള് വക്താവ് പറഞ്ഞു.
‘യൂസറുടെ സെര്ച്ച് ആക്റ്റിവിറ്റികളുടെയും, താല്പ്പര്യങ്ങളുടെയും അടിസ്ഥാനത്തിലുള്ള അല്ഗോരിതമാണ് ഓട്ടോ കംപ്ലീറ്റ് സജ്ജഷനുകള് നടത്തുന്നത്. യൂസര്മാര് ദിനേന നടത്തുന്ന സര്ച്ചുകളില് 15 ശതമാനവും പുതിയ കാര്യങ്ങളെ കുറിച്ചാണ്. ഇക്കാരണത്താലാണ് ഓട്ടോകംപ്ലീറ്റ് സജ്ജഷനുകളില് അപ്രതീക്ഷിതവും അരോചകവുമായ പദങ്ങള് കടന്നുവരുന്നത്.’ അദ്ദേഹം വിശദീകരിച്ചു.
ഇതിപ്പോള് ആദ്യമായല്ല ഗൂഗ്ളും മറ്റു സെര്ച്ച് എഞ്ചിനുകളും ഓട്ടോകംപ്ലീറ്റ് സജ്ജഷന്റെ പേരില് വെട്ടിലാവുന്നത്. 2015 ജൂലൈയില് കറുത്ത വര്ഗക്കാരായ രണ്ട് കൗമാരക്കാരുടെ ഫോട്ടോയുടെ ടാഗില് ഓട്ടോകംപ്ലീഷന് പ്രകാരം ‘ഗോറില്ലകള്’ എന്നായിരുന്നു ഗൂഗിളില് വന്നത്. അന്ന് ഗൂഗ്ള് മാപ്പ് പറഞ്ഞിരുന്നു.