ಎಐ ನೀತಿಶಾಸ್ತ್ರದ ಜಟಿಲ ಪ್ರಶ್ನೆ
ಒಮ್ಮೆ ಊಹಿಸಿಕೊಳ್ಳಿ, ನೀವು ಒಂದು ಚಾಲಕ ರಹಿತ (Driverless) ಕಾರಿನಲ್ಲಿ ಕುಳಿತು ಪ್ರಯಾಣಿಸುತ್ತಿದ್ದೀರಿ. ಆ ಕಾರನ್ನು ನಡೆಸುತ್ತಿರುವುದು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಅಥವಾ ಎಐ. ನೀವು ಹಿಂದಿನ ಸೀಟಿನಲ್ಲಿ ಕುಳಿತು ಆರಾಮಾಗಿ ಪೇಪರ್ ಓದುತ್ತಿದ್ದೀರಿ. ಇದ್ದಕ್ಕಿದ್ದಂತೆ ರಸ್ತೆಯ ಅಡ್ಡಲಾಗಿ ಒಬ್ಬ ವ್ಯಕ್ತಿ ಬರುತ್ತಾನೆ. ಕಾರಿನ ಬ್ರೇಕ್ ಫೇಲ್ ಆಗುವುದಿಲ್ಲ, ಆದರೆ ಎಐ ಒಂದು ನಿರ್ಧಾರ ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ. ಬಲಕ್ಕೆ ತಿರುಗಿಸಿದರೆ ಫುಟ್ಪಾತ್ ಮೇಲಿರುವ ಇಬ್ಬರು ಮಕ್ಕಳಿಗೆ ಡಿಕ್ಕಿ ಹೊಡೆಯುತ್ತದೆ, ನೇರವಾಗಿ ಹೋದರೆ ಆ ಒಬ್ಬ ವ್ಯಕ್ತಿಗೆ ಡಿಕ್ಕಿ ಹೊಡೆಯುತ್ತದೆ. ಎಐ ಲೆಕ್ಕಾಚಾರ ಹಾಕಿ, ಇಬ್ಬರನ್ನು ಉಳಿಸುವುದು ಉತ್ತಮ ಎಂದು ನಿರ್ಧರಿಸಿ, ನೇರವಾಗಿ ಹೋಗಿ ಆ ವ್ಯಕ್ತಿಗೆ ಡಿಕ್ಕಿ ಹೊಡೆದು, ಆತ ಸಾವನ್ನಪ್ಪುತ್ತಾನೆ. ಈಗ ಪ್ರಶ್ನೆ ಏನೆಂದರೆ, ಪೊಲೀಸರು ಯಾರನ್ನು ಬಂಧಿಸಬೇಕು? ಹಿಂದಿನ ಸೀಟಿನಲ್ಲಿ ಕುಳಿತ ನಿಮ್ಮನ್ನಾ? ಆ ಕಾರನ್ನು ತಯಾರಿಸಿದ ಕಂಪನಿಯನ್ನಾ? ಅಥವಾ ಆ ಎಐ ಸಾಫ್ಟ್ವೇರ್ ಬರೆದ ಇಂಜಿನಿಯರ್ ಅನ್ನಾ?
ಇದು ಕೇವಲ ಒಂದು ಕಾಲ್ಪನಿಕ ಸನ್ನಿವೇಶವಲ್ಲ. ತಂತ್ರಜ್ಞಾನ ವೇಗವಾಗಿ ಬೆಳೆಯುತ್ತಿರುವ ಇಂದಿನ ಜಗತ್ತಿನಲ್ಲಿ, ನಾವು ಪ್ರತಿದಿನ ಎದುರಿಸಲಿರುವ ಅತಿದೊಡ್ಡ ಕಾನೂನು ಮತ್ತು ನೈತಿಕ ಸಂಕಟ ಇದಾಗಿದೆ. ಇಲ್ಲಿಯವರೆಗೆ ಮನುಷ್ಯ ಬಳಸುವ ಉಪಕರಣಗಳು ಕೇವಲ ಜಡ ವಸ್ತುಗಳಾಗಿದ್ದವು. ಒಂದು ವೇಳೆ ಒಬ್ಬ ವ್ಯಕ್ತಿ ಚಾಕುವಿನಿಂದ ಇನ್ನೊಬ್ಬನನ್ನು ಇರಿದರೆ, ಪೊಲೀಸರು ಚಾಕುವನ್ನು ಬಂಧಿಸುವುದಿಲ್ಲ, ಅದನ್ನು ಬಳಸಿದ ವ್ಯಕ್ತಿಯನ್ನು ಬಂಧಿಸುತ್ತಾರೆ. ಏಕೆಂದರೆ ಚಾಕುವಿಗೆ ಸ್ವಂತ ಬುದ್ಧಿಯಿಲ್ಲ. ಆದರೆ ಎಐ ಹಾಗಲ್ಲ. ಅದಕ್ಕೆ ಸ್ವಂತವಾಗಿ ಆಲೋಚಿಸುವ, ಕಲಿಯುವ ಮತ್ತು ನಿರ್ಧಾರ ತೆಗೆದುಕೊಳ್ಳುವ ಶಕ್ತಿ ಇದೆ. ಹೀಗಿರುವಾಗ, ಅದು ಮಾಡುವ ತಪ್ಪುಗಳಿಗೆ ಮನುಷ್ಯನನ್ನೇಕೆ ಹೊಣೆಗಾರನನ್ನಾಗಿ ಮಾಡಬೇಕು ಎಂಬ ಪ್ರಶ್ನೆ ಎಐ ನೀತಿಶಾಸ್ತ್ರದ (AI Ethics) ಮೂಲಭೂತ ಚರ್ಚೆಯಾಗಿದೆ.
ಕಾನೂನಿನ ದೃಷ್ಟಿಯಲ್ಲಿ ಅಪರಾಧ ಎಂದು ಸಾಬೀತಾಗಲು ಎರಡು ಅಂಶಗಳು ಮುಖ್ಯ: ಒಂದು 'ಆಕ್ಟಸ್ ರಿಯಸ್' (ಅಪರಾಧ ಕೃತ್ಯ) ಮತ್ತು ಇನ್ನೊಂದು 'ಮೆನ್ಸ್ ರಿಯಾ' (ಅಪರಾಧ ಮನಸ್ಸು ಅಥವಾ ಉದ್ದೇಶ). ರೋಬೋಟ್ ಅಥವಾ ಎಐ ಕೃತ್ಯವನ್ನು ಎಸಗಬಹುದು, ಆದರೆ ಅದಕ್ಕೆ 'ಮನಸ್ಸು' ಅಥವಾ 'ಉದ್ದೇಶ' ಇರುವುದಿಲ್ಲ. ಅದಕ್ಕೆ ಸಿಟ್ಟು, ದ್ವೇಷ ಅಥವಾ ಸೇಡಿನ ಭಾವನೆ ಇರುವುದಿಲ್ಲ. ಅದು ಕೇವಲ ತನಗೆ ನೀಡಿದ ಡಾಟಾ ಮತ್ತು ಅಲ್ಗಾರಿದಮ್ಗಳ ಆಧಾರದ ಮೇಲೆ ನಿರ್ಧಾರ ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ. ಹೀಗಾಗಿ ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಕಾನೂನಿನ ಪ್ರಕಾರ ರೋಬೋಟ್ ಅನ್ನು ಶಿಕ್ಷಿಸಲು ಸಾಧ್ಯವಿಲ್ಲ. ಜೈಲಿಗೆ ಹಾಕಿದರೆ ಅದಕ್ಕೆ ನೋವಾಗುವುದಿಲ್ಲ, ದಂಡ ಹಾಕಿದರೆ ಅದಕ್ಕೆ ಹಣದ ಮೌಲ್ಯ ಗೊತ್ತಿಲ್ಲ. ಹಾಗಾದರೆ ಸಂತ್ರಸ್ತರಿಗೆ ನ್ಯಾಯ ಸಿಗುವುದು ಹೇಗೆ?
ಇದಕ್ಕೆ ಉತ್ತರವಾಗಿ ಕಾನೂನು ತಜ್ಞರು ಸದ್ಯಕ್ಕೆ 'ನಿರ್ಲಕ್ಷ್ಯ' (Negligence) ಎಂಬ ತತ್ವವನ್ನು ಬಳಸುತ್ತಿದ್ದಾರೆ. ಅಂದರೆ, ಎಐ ತಪ್ಪು ಮಾಡಿದೆ ಎಂದರೆ, ಅದನ್ನು ರೂಪಿಸುವಾಗ ಅಥವಾ ತರಬೇತಿ ನೀಡುವಾಗ ಮನುಷ್ಯ ಎಲ್ಲೋ ಎಡವಿದ್ದಾನೆ ಎಂದು ಅರ್ಥ. ಉದಾಹರಣೆಗೆ, ಅಮೆರಿಕದಲ್ಲಿ ನಡೆದ ಊಬರ್ (Uber) ಚಾಲಕ ರಹಿತ ಕಾರಿನ ಅಪಘಾತದಲ್ಲಿ, ಕಾರು ರಸ್ತೆ ದಾಟುತ್ತಿದ್ದ ಮಹಿಳೆಯನ್ನು ಗುರುತಿಸಲು ವಿಫಲವಾಯಿತು. ಆಗ ನ್ಯಾಯಾಲಯವು ಕಾರಿನಲ್ಲಿದ್ದ ಸುರಕ್ಷತಾ ಪೈಲಟ್ (Safety Pilot) ನತ್ತ ಬೊಟ್ಟು ಮಾಡಿತು. ಯಂತ್ರ ಎಷ್ಟೇ ಸ್ಮಾರ್ಟ್ ಆಗಿದ್ದರೂ, ಅಂತಿಮವಾಗಿ ಅದರ ಲಗಾಮು ಮನುಷ್ಯನ ಕೈಯಲ್ಲೇ ಇರಬೇಕು ಮತ್ತು ಏನಾದರೂ ಹೆಚ್ಚು ಕಡಿಮೆಯಾದರೆ ಮನುಷ್ಯನೇ ಹೊಣೆ ಹೊರಬೇಕು ಎಂಬುದು ಸದ್ಯದ ವಾದ.
ಆದರೆ ಇಲ್ಲೊಂದು ದೊಡ್ಡ ಸಮಸ್ಯೆ ಇದೆ. ಅದನ್ನು 'ಬ್ಲ್ಯಾಕ್ ಬಾಕ್ಸ್' (Black Box) ಸಮಸ್ಯೆ ಎಂದು ಕರೆಯುತ್ತಾರೆ. ಆಧುನಿಕ ಎಐ ವ್ಯವಸ್ಥೆಗಳು, ಅದರಲ್ಲೂ ಡೀಪ್ ಲರ್ನಿಂಗ್ (Deep Learning) ಮಾಡೆಲ್ ಗಳು ಎಷ್ಟು ಸಂಕೀರ್ಣವಾಗಿವೆ ಎಂದರೆ, ಕೆಲವೊಮ್ಮೆ ಅವು ಏಕೆ ಒಂದು ನಿರ್ದಿಷ್ಟ ನಿರ್ಧಾರವನ್ನು ತೆಗೆದುಕೊಂಡವು ಎಂಬುದು ಸ್ವತಃ ಅದನ್ನು ತಯಾರಿಸಿದ ವಿಜ್ಞಾನಿಗಳಿಗೂ ಅರ್ಥವಾಗುವುದಿಲ್ಲ. ಎಐ ತಾನೇ ಸ್ವತಃ ಕಲಿತುಕೊಂಡು, ಮನುಷ್ಯನ ಗ್ರಹಿಕೆಗೆ ಮೀರಿದ ಲೆಕ್ಕಾಚಾರಗಳನ್ನು ಹಾಕಿರುತ್ತದೆ. ಹೀಗೆ ಎಐ ತನ್ನದೇ ಆದ ದಾರಿಯಲ್ಲಿ ಯೋಚಿಸಿ ತಪ್ಪು ಮಾಡಿದರೆ, ಅದಕ್ಕೆ ಪ್ರೋಗ್ರಾಮರ್ ಅನ್ನು ಹೇಗೆ ಹೊಣೆ ಮಾಡಲು ಸಾಧ್ಯ? ಮಗುವಿನ ತಪ್ಪಿಗೆ ಪೋಷಕರನ್ನು ಬೈಯಬಹುದು, ಆದರೆ ಮಗ ದೊಡ್ಡವನಾಗಿ ಸ್ವತಂತ್ರವಾಗಿ ತಪ್ಪು ಮಾಡಿದರೆ ಪೋಷಕರನ್ನು ಜೈಲಿಗೆ ಹಾಕಲು ಸಾಧ್ಯವಿಲ್ಲವಲ್ಲವೇ?
ವೈದ್ಯಕೀಯ ಕ್ಷೇತ್ರದಲ್ಲೂ ಈ ಸಮಸ್ಯೆ ಗಂಭೀರವಾಗಿದೆ. ಈಗ ಕ್ಯಾನ್ಸರ್ ಪತ್ತೆ ಹಚ್ಚಲು, ಸರ್ಜರಿ ಮಾಡಲು ರೋಬೋಟ್ ಗಳನ್ನು ಬಳಸಲಾಗುತ್ತಿದೆ. ಒಂದು ವೇಳೆ ಎಐ ವೈದ್ಯನೊಬ್ಬ ರೋಗಿಗೆ ತಪ್ಪು ಔಷಧಿ ಸೂಚಿಸಿ, ರೋಗಿ ಮೃತಪಟ್ಟರೆ ಯಾರ ಮೇಲೆ ಕೇಸ್ ಹಾಕಬೇಕು? ಆಸ್ಪತ್ರೆಯ ಆಡಳಿತ ಮಂಡಳಿಯ ಮೇಲೆಯೇ? ಸಾಫ್ಟ್ವೇರ್ ಕಂಪನಿಯ ಮೇಲೆಯೇ? ಅಥವಾ ಆ ಎಐ ಸಲಹೆಯನ್ನು ಪಾಲಿಸಿದ ಮಾನವ ವೈದ್ಯನ ಮೇಲೆಯೇ? ವೈದ್ಯರು "ನಾನು ಎಐ ರಿಪೋರ್ಟ್ ನಂಬಿದೆ" ಎನ್ನಬಹುದು, ಕಂಪನಿ "ನಮ್ಮ ಸಾಫ್ಟ್ವೇರ್ ಶೇಕಡಾ 99 ರಷ್ಟು ನಿಖರವಾಗಿದೆ, ಇದು ಅಪರೂಪದ ದೋಷ" ಎನ್ನಬಹುದು. ಅಂತಿಮವಾಗಿ ಬಲಿಯಾದ ರೋಗಿಗೆ ಯಾರಿಂದಲೂ ಪರಿಹಾರ ಸಿಗದೆ ಹೋಗುವ ಅಪಾಯವಿದೆ.
ಇನ್ನೊಂದು ಆಯಾಮವೆಂದರೆ ಎಐನಲ್ಲಿರುವ ಪಕ್ಷಪಾತ (Bias). ಎಐಗೆ ತರಬೇತಿ ನೀಡಲು ಬಳಸುವ ಡಾಟಾದಲ್ಲಿ ಮನುಷ್ಯರ ತಾರತಮ್ಯಗಳು ಸೇರಿಕೊಂಡಿರುತ್ತವೆ. ಉದಾಹರಣೆಗೆ, ಒಂದು ಕಂಪನಿ ಉದ್ಯೋಗಿಗಳನ್ನು ನೇಮಿಸಿಕೊಳ್ಳಲು ಎಐ ಬಳಸುತ್ತದೆ ಎಂದುಕೊಳ್ಳಿ. ಆ ಎಐಗೆ ನೀಡಿದ ಹಳೆಯ ಡಾಟಾದಲ್ಲಿ ಪುರುಷರೇ ಹೆಚ್ಚು ಕೆಲಸ ಮಾಡಿದ್ದರೆ, ಎಐ "ಮಹಿಳೆಯರು ಕೆಲಸಕ್ಕೆ ಲಾಯಕ್ಕಲ್ಲ" ಎಂದು ತೀರ್ಮಾನಿಸಿ, ಎಲ್ಲಾ ಮಹಿಳಾ ಅಭ್ಯರ್ಥಿಗಳನ್ನು ರಿಜೆಕ್ಟ್ ಮಾಡಬಹುದು. ಆಗ ಅದು ಕೇವಲ ತಾಂತ್ರಿಕ ದೋಷವಾಗುವುದಿಲ್ಲ, ಅದು ಕಾನೂನುಬಾಹಿರ ತಾರತಮ್ಯವಾಗುತ್ತದೆ. ಈ ಸಂದರ್ಭದಲ್ಲಿ ಕಂಪನಿಯು "ಅದು ಎಐ ಮಾಡಿದ ಕೆಲಸ" ಎಂದು ಕೈ ತೊಳೆದುಕೊಳ್ಳುವಂತಿಲ್ಲ. ಕೆಟ್ಟ ಡಾಟಾ ನೀಡಿದ್ದಕ್ಕೆ ಕಂಪನಿಯೇ ಶಿಕ್ಷೆ ಅನುಭವಿಸಬೇಕಾಗುತ್ತದೆ.

ಕೃತಿಸ್ವಾಮ್ಯ (Copyright) ವಿಷಯದಲ್ಲೂ ಇದೇ ಗೊಂದಲವಿದೆ. ಎಐ ಒಂದು ಸುಂದರವಾದ ಚಿತ್ರ ಬರೆದರೆ ಅಥವಾ ಕವನ ಬರೆದರೆ ಅದರ ಮಾಲೀಕರು ಯಾರು? ಅದಕ್ಕೆ ಬಳಸಿದ ಪ್ರಾಂಪ್ಟ್ ಕೊಟ್ಟವನಾ? ಅಥವಾ ಎಐ ತಯಾರಿಸಿದವನಾ? ಇತ್ತೀಚೆಗೆ ಮಂಗವೊಂದು ಸೆಲ್ಫಿ ತೆಗೆದುಕೊಂಡಾಗ, ಆ ಫೋಟೋದ ಕಾಪಿರೈಟ್ ಮಂಗನಿಗೆ ಸೇರಿದ್ದು, ಕ್ಯಾಮೆರಾ ಮಾಲೀಕನಿಗಲ್ಲ ಎಂದು ಪ್ರಾಣಿ ಹಕ್ಕುಗಳ ಹೋರಾಟಗಾರರು ವಾದಿಸಿದ್ದರು. ಅದೇ ತರ್ಕವನ್ನು ಎಐಗೂ ಬಳಸಬಹುದೇ? "ಎಲೆಕ್ಟ್ರಾನಿಕ್ ಪರ್ಸನ್ಹುಡ್" (Electronic Personhood) ಅಂದರೆ ರೋಬೋಟ್ ಗಳಿಗೆ ಅಥವಾ ಎಐಗೆ ಕಂಪನಿಗಳಂತೆ ಕಾನೂನಾತ್ಮಕ ವ್ಯಕ್ತಿತ್ವ ನೀಡಬೇಕು ಎಂಬ ಚರ್ಚೆ ಈಗ ಯುರೋಪಿಯನ್ ಯೂನಿಯನ್ ನಲ್ಲಿ ನಡೆಯುತ್ತಿದೆ. ಅಂದರೆ ರೋಬೋಟ್ ಗಳಿಗೆ ಆಸ್ತಿ ಹೊಂದುವ, ವಿಮೆ ಮಾಡಿಸುವ ಮತ್ತು ಕೇಸ್ ಎದುರಿಸುವ ಹಕ್ಕು ನೀಡುವುದು.
ಆದರೆ ರೋಬೋಟ್ ಗಳಿಗೆ ಹಕ್ಕು ನೀಡಿದರೆ, ಅವುಗಳಿಗೆ ಶಿಕ್ಷೆಯ ಭಯ ಇರುವುದಿಲ್ಲ. ಹಾಗಾಗಿ ತಜ್ಞರು 'ಕಡ್ಡಾಯ ವಿಮೆ' (Compulsory Insurance) ಪದ್ಧತಿಯನ್ನು ಸಲಹೆ ನೀಡುತ್ತಿದ್ದಾರೆ. ಅಂದರೆ, ಕಾರುಗಳಿಗೆ ಹೇಗೆ ಇನ್ಶೂರೆನ್ಸ್ ಕಡ್ಡಾಯವೋ, ಹಾಗೆಯೇ ಪ್ರತಿಯೊಂದು ಎಐ ರೋಬೋಟ್ ಗೂ ಇನ್ಶೂರೆನ್ಸ್ ಮಾಡಿಸಬೇಕು. ಅದು ಏನಾದರೂ ತಪ್ಪು ಮಾಡಿ ನಷ್ಟ ಉಂಟುಮಾಡಿದರೆ, ಆ ವಿಮಾ ಹಣದಿಂದ ಪರಿಹಾರ ನೀಡಬೇಕು. ಆಗ ಯಾರನ್ನು ಜೈಲಿಗೆ ಹಾಕಬೇಕು ಎಂಬ ಪ್ರಶ್ನೆ ಬರುವುದಿಲ್ಲ, ಬದಲಿಗೆ ನಷ್ಟ ತುಂಬಿಕೊಡುವುದು ಮುಖ್ಯವಾಗುತ್ತದೆ.
ಮಿಲಿಟರಿ ಅಥವಾ ಯುದ್ಧ ರಂಗದಲ್ಲಿ ಈ ವಿಷಯ ಇನ್ನೂ ಭಯಾನಕವಾಗಿದೆ. 'ಕಿಲ್ಲರ್ ರೋಬೋಟ್'ಗಳು ಅಥವಾ ಸ್ವಾಯತ್ತ ಶಸ್ತ್ರಾಸ್ತ್ರಗಳು (Autonomous Weapons) ಯುದ್ಧಭೂಮಿಯಲ್ಲಿ ತಾವೇ ಶತ್ರುವನ್ನು ಗುರುತಿಸಿ ಗುಂಡು ಹಾರಿಸುತ್ತವೆ. ಒಂದು ವೇಳೆ ತಾಂತ್ರಿಕ ದೋಷದಿಂದ ಅದು ಅಮಾಯಕ ನಾಗರಿಕರ ಮೇಲೆ ದಾಳಿ ಮಾಡಿದರೆ, ಅದಕ್ಕೆ ಯಾವ ದೇಶ ಹೊಣೆ? ಯುದ್ಧ ಅಪರಾಧ (War Crime) ಎಂದು ಯಾರನ್ನು ವಿಚಾರಣೆಗೆ ಒಳಪಡಿಸಬೇಕು? ಈ ಕಾರಣಕ್ಕಾಗಿಯೇ ವಿಶ್ವಸಂಸ್ಥೆ ಮತ್ತು ಮಾನವ ಹಕ್ಕುಗಳ ಸಂಸ್ಥೆಗಳು ಮನುಷ್ಯನ ನಿಯಂತ್ರಣವಿಲ್ಲದ ಇಂತಹ ರೋಬೋಟ್ ಗಳನ್ನು ನಿಷೇಧಿಸಬೇಕು ಎಂದು ಒತ್ತಾಯಿಸುತ್ತಿವೆ.
ಮನುಷ್ಯ ತಪ್ಪು ಮಾಡಿದರೆ ತಿದ್ದಿಕೊಳ್ಳಬಹುದು, ಪಶ್ಚಾತ್ತಾಪ ಪಡಬಹುದು. ಆದರೆ ಯಂತ್ರಕ್ಕೆ ಆ ಅವಕಾಶವಿಲ್ಲ. ನಾವು ಎಐಗೆ ಎಷ್ಟೇ ಬುದ್ಧಿವಂತಿಕೆ ತುಂಬಿದರೂ, ಅದಕ್ಕೆ 'ಪ್ರಜ್ಞೆ' (Consciousness) ಅಥವಾ 'ಆತ್ಮಸಾಕ್ಷಿ' ತುಂಬಲು ಸಾಧ್ಯವಿಲ್ಲ. ನೀತಿಶಾಸ್ತ್ರ ಎನ್ನುವುದು ಸರಿ ಮತ್ತು ತಪ್ಪಿನ ನಡುವಿನ ಸೂಕ್ಷ್ಮ ಗೆರೆ. ಎಐಗೆ ಯಾವುದು ಲಾಭದಾಯಕ, ಯಾವುದು ನಷ್ಟದಾಯಕ ಎಂದು ಗೊತ್ತು. ಆದರೆ ಯಾವುದು ಧರ್ಮ, ಯಾವುದು ಅಧರ್ಮ ಎಂದು ಗೊತ್ತಿಲ್ಲ. ಆದ್ದರಿಂದ ಪ್ರಮುಖ ನಿರ್ಧಾರಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುವ ಜಾಗದಲ್ಲಿ, ಅಂದರೆ ನ್ಯಾಯಾಧೀಶರಾಗಿ, ವೈದ್ಯರಾಗಿ ಅಥವಾ ಪೊಲೀಸ್ ಆಗಿ ಎಐ ಅನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ನೇಮಿಸುವುದು ಸಮಾಜಕ್ಕೆ ಅಪಾಯಕಾರಿ.
ತಂತ್ರಜ್ಞಾನದ ವೇಗಕ್ಕೆ ಹೋಲಿಸಿದರೆ ನಮ್ಮ ಕಾನೂನು ವ್ಯವಸ್ಥೆ ಆಮೆಗತಿಯಲ್ಲಿದೆ. 19ನೇ ಶತಮಾನದ ಕಾನೂನುಗಳನ್ನು ಇಟ್ಟುಕೊಂಡು 21ನೇ ಶತಮಾನದ ಎಐ ಅಪರಾಧಗಳನ್ನು ಬಗೆಹರಿಸಲು ಸಾಧ್ಯವಿಲ್ಲ. ನಮಗೆ ಹೊಸ ಬಗೆಯ 'ಡಿಜಿಟಲ್ ಸಂವಿಧಾನ'ದ ಅಗತ್ಯವಿದೆ. ಎಐ ಅನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸುವ ಹಂತದಲ್ಲೇ ಅದಕ್ಕೆ ನೈತಿಕ ಮೌಲ್ಯಗಳನ್ನು (Ethical Guardrails) ಕೋಡಿಂಗ್ ಮೂಲಕ ಅಳವಡಿಸಬೇಕು. "ಮನುಷ್ಯರಿಗೆ ಹಾನಿ ಮಾಡಬಾರದು" ಎಂಬ ಐಸಾಕ್ ಅಸಿಮೋವ್ ಅವರ ರೋಬೋಟಿಕ್ಸ್ ನಿಯಮಗಳು ಕೇವಲ ಕಾದಂಬರಿಗೆ ಸೀಮಿತವಾಗದೆ, ನೈಜ ಪ್ರಪಂಚದ ಕಾನೂನಾಗಬೇಕು.
ಅಂತಿಮವಾಗಿ, ಯಂತ್ರ ಮಾಡಿದ ತಪ್ಪಿಗೆ ಮನುಷ್ಯನಿಗೆ ಶಿಕ್ಷೆಯಾಗುವುದು ಮೇಲ್ನೋಟಕ್ಕೆ ಅನ್ಯಾಯ ಎಂದು ಕಂಡರೂ, ಆ ಯಂತ್ರವನ್ನು ಸೃಷ್ಟಿಸಿದ ಸೃಷ್ಟಿಕರ್ತ ಮನುಷ್ಯನೇ ಆಗಿರುವುದರಿಂದ ಹೊಣೆಗಾರಿಕೆಯಿಂದ ತಪ್ಪಿಸಿಕೊಳ್ಳಲು ಸಾಧ್ಯವಿಲ್ಲ. ನಾವು ಎಐ ಎಂಬ ಶಕ್ತಿಯುತ ಭೂತವನ್ನು ಬಾಟಲಿಯಿಂದ ಹೊರಗೆ ಬಿಟ್ಟಿದ್ದೇವೆ. ಈಗ ಅದು ಮಾಡುವ ಒಳ್ಳೆಯ ಕೆಲಸಗಳಿಗೆ ಚಪ್ಪಾಳೆ ತಟ್ಟುವ ನಾವು, ಅದು ಮಾಡುವ ಅನಾಹುತಗಳಿಗೂ ಜವಾಬ್ದಾರಿ ತೆಗೆದುಕೊಳ್ಳಲೇಬೇಕು. ಎಲ್ಲಿಯವರೆಗೆ ಎಐಗೆ ಆತ್ಮಸಾಕ್ಷಿ ಬರುವುದಿಲ್ಲವೋ, ಅಲ್ಲಿಯವರೆಗೆ ಅದರ ಕಾವಲುಗಾರನಾಗಿ ಮನುಷ್ಯನೇ ನಿಲ್ಲಬೇಕು.
ತಂತ್ರಜ್ಞಾನವು ನಮ್ಮ ಬದುಕನ್ನು ಸುಲಭಗೊಳಿಸಲಿ, ಆದರೆ ಅದು ನಮ್ಮ ಹೊಣೆಗಾರಿಕೆಯನ್ನು ಮರೆಸಬಾರದು. ಎಐ ಯುಗದಲ್ಲಿ ನಾವು ಕೇವಲ ಸ್ಮಾರ್ಟ್ ಆಗಿದ್ದರೆ ಸಾಲದು, ಹೆಚ್ಚು ಜವಾಬ್ದಾರಿಯುತವಾಗಿಯೂ (Responsible) ಇರಬೇಕಿದೆ. ಇಲ್ಲದಿದ್ದರೆ, ನಾವು ಸೃಷ್ಟಿಸಿದ ಯಂತ್ರಗಳೇ ನಮಗೆ ನ್ಯಾಯಾಲಯದ ಸಮನ್ಸ್ ನೀಡುವ ದಿನಗಳು ದೂರವಿಲ್ಲ.
ಈ ಲೇಖನಗಳನ್ನೂ ಓದಿ
➤ ಸಿಇಎಸ್ 2026: ಲಾಸ್ ವೇಗಾಸ್ನಲ್ಲಿ ಭಾರತದ ಎಐ ಕರಾಮತ್ತು!
➤ ನದಿ ತಿರುವು ಯೋಜನೆ: ಸುರಂಗದಿಂದ ಪಾತಾಳಗಂಗೆಗೆ ಕುತ್ತು!
➤ 'ಹಲೋ.. ನೀವು ಅರೆಸ್ಟ್ ಆಗಿದ್ದೀರಿ' ಅಂದರೆ ತಪ್ಪೇ ಮಾಡದ ನೀವ್ಯಾಕೆ ನಂಬುತ್ತೀರಿ?

ಇನ್ನೂ ಯಾವುದೇ ಕಾಮೆಂಟ್ಗಳಿಲ್ಲ.
ಬ್ರೇಕಿಂಗ್ ನ್ಯೂಸ್, ಟ್ರೆಂಡಿಂಗ್ ಸ್ಟೋರಿ ಆಳವಾದ ವಿಶ್ಲೇಷಣೆಗಳನ್ನು ನಿರಂತರವಾಗಿ ಪಡೆಯಲು ಉಚಿತವಾಗಿ ಚಂದಾದಾರರಾಗಿ.