'സൈനിക സംവിധാനങ്ങളിലെ AI അപകടകരം'; സർവനാശത്തിന് വഴിതെളിക്കാമെന്ന് പ്രവചനം

'സൈനിക സംവിധാനങ്ങളിലെ AI അപകടകരം'; സർവനാശത്തിന് വഴിതെളിക്കാമെന്ന് പ്രവചനം

M
MathrubhumiSource Link
ടെക്‌നോളജി ഡെസ്‌ക് Last Updated: 28 Mar 2026, 03:46 pm IST ഭാവിയിലെ എഐ സംവിധാനങ്ങള്‍ക്ക് അവയുടെ സ്വന്തം അടിസ്ഥാന സൗകര്യങ്ങള്‍ വികസിപ്പിക്കാനും കൈകാര്യം ചെയ്യാനും കഴിഞ്ഞേക്കും. പ്രതീകാത്മകചിത്രം | AFP, AI എഐ (നിർമിതബുദ്ധി)യുടെ ഭാവിയെക്കുറിച്ച് കടുത്ത ആശങ്ക ഉയർത്തി ഓപ്പൺഎഐയിലെ മുൻ ഗവേഷകനും വിസിൽബ്ലോവറുമായ ഡാനിയൽ കൊക്കോട്ടാജ്ലോ. അതിവേഗം വികസിക്കുന്ന എഐ സംവിധാനങ്ങൾ മനുഷ്യ നിയന്ത്രണത്തിൽ നിന്ന് വഴുതിപ്പോകാം. ഇതേത്തുടർന്ന് എല്ലാ മനുഷ്യരും മരിക്കാനോ അതുപോലെ വിനാശകരമായ എന്തെങ്കിലും സംഭവിക്കാനോ സാധ്യതയുണ്ട്. മനുഷ്യരാശിയുടെ ഉന്മൂലനാശത്തിനുതന്നെ എഐ കാരണമായേക്കാമെന്നും അദ്ദേഹം പറയുന്നു. To advertise here, ദശാബ്ദങ്ങൾക്ക് അപ്പുറമല്ല, അടുത്ത ഏതാനും വർഷങ്ങൾക്കുള്ളിൽ തന്നെ അപകടങ്ങൾ സംഭവിക്കാമെന്ന് അദ്ദേഹം പറയുന്നു. എഐ വികസനത്തിന്റെ വേഗം ഓരോ വർഷം കഴിയുന്തോറും വർധിക്കുകയാണ്. അതുകാരണം അപകടം പ്രതീക്ഷിച്ചതിലും വേഗത്തിൽ തൊട്ടടുത്തെത്താം. ഏകദേശം അഞ്ച് വർഷത്തിനുള്ളിൽ എന്നാണ് താൻ കണക്കാക്കുന്നതെന്നു അദ്ദേഹം പറയുന്നു. എഐ സംവിധാനങ്ങളെ നിയന്ത്രിക്കാനുള്ള മനുഷ്യന്റെ കഴിവിന്റെ പരിമിതി ആശങ്ക സൃഷ്ടിക്കുന്നതാണ്. ഒരു എഐ സംവിധാനം ഷട്ട് ഡൗൺ ചെയ്യുന്നത് ഒരു പ്ലഗ് വലിക്കുന്നത്ര ലളിതമല്ല. പ്രതിരോധ-സൈനിക ശൃംഖലകൾ ഉൾപ്പെടെയുള്ള അടിസ്ഥാന സൗകര്യങ്ങളിൽ എഐ സംവിധാനങ്ങൾ വൻതോതിൽ ഉൾപ്പെടുത്തുന്നതിനാൽ അവയെ നിയന്ത്രിക്കാനുള്ള ഏത് ശ്രമവും വളരെ സങ്കീർണമായേക്കാം. അത്തരം സാഹചര്യത്തിൽ മനുഷ്യന് ഒറ്റപ്പെട്ട യന്ത്രങ്ങളെയാവില്ല നേരിടേണ്ടിവരുന്നത്. മറിച്ച് സ്വതന്ത്രമായി പ്രവർത്തിക്കാൻ കഴിയുന്ന വലിയ സംവിധാനങ്ങളുമായിട്ടായിരിക്കും. ടെക് വ്യവസായ രംഗത്തെ മത്സരവും ആശങ്ക വർധിപ്പിക്കുന്നുവെന്ന് അദ്ദേഹം പറയുന്നു. കമ്പനികൾ കൂടുതൽ മികച്ച എഐ സംവിധാനങ്ങൾ നിർമിക്കാൻ മത്സരിക്കുന്നു. എതിരാളികളെക്കാൾ വേഗത്തിൽ മുന്നേറാനുള്ള സമ്മർദ്ദം സുരക്ഷയിൽ വിട്ടുവീഴ്ച ചെയ്യാൻ കമ്പനികളെ പ്രേരിപ്പിക്കാം. ഒരു കമ്പനി അപകടം ഒഴിവാക്കുന്നതിന്റെ ഭാഗമായി എഐ വികസനത്തിന്റെ വേഗം കുറച്ചാൽ മറ്റൊന്ന് അവരെ മറികടന്ന് മുന്നോട്ട് പോയേക്കാം. ഇത്തരത്തിലുള്ള മത്സരം കാര്യങ്ങൾ സങ്കീർണമാക്കി മാറ്റും. എഐ സംവിധാനങ്ങൾ പൂർണമായും മനുഷ്യരെ ആശ്രയിക്കാത്ത ഭാവിയും മുന്നിൽകാണേണ്ടതാണ്. ഭാവിയിലെ എഐ സംവിധാനങ്ങൾക്ക് അവയുടെ സ്വന്തം അടിസ്ഥാന സൗകര്യങ്ങൾ വികസിപ്പിക്കാനും കൈകാര്യം ചെയ്യാനും കഴിഞ്ഞേക്കും. ഈ സംവിധാനങ്ങൾ മനുഷ്യന്റെ പങ്കാളിത്തമില്ലാതെ റോബോട്ട് ഓപ്പറേറ്റഡ് ഫാക്ടറികൾ സൃഷ്ടിച്ചേക്കുമെന്നും കൂട്ടിച്ചേർത്തു. Content Highlights: Former OpenAI researcher predicts a 70% chance of human extinction due to AI., AI advancement is accelerating, with critical risks potentially emerging within five years., The integration of AI into military and infrastructure makes 'pulling the plug' impossible., Industry competition is forcing companies to prioritize speed over essential safety guardrails., Advanced AI systems may eventually operate independently of human oversight. Published: 28 Mar 2026, 03:42 pm IST Disclaimer: Kindly avoid objectionable, derogatory, unlawful and lewd comments, while responding to reports. Such comments are punishable under cyber laws. Please keep away from personal attacks. The opinions expressed here are the personal opinions of readers and not that of Mathrubhumi.

How was this article?

Discussion (0)

Please login to join the conversation.

No comments yet. Be the first!

'സൈനിക സംവിധാനങ്ങളിലെ AI അപകടകരം'; സർവനാശത്തിന് വഴിതെളിക്കാ… | Boolokam