ಇದು ಅವರಲ್ಲ, ಅವರಲ್ಲ..! ಎನ್​ಎಸ್​ಇ ಸಿಇಒ ಆಶೀಶ್​ಕುಮಾರ್ ಚೌಹಾಣ್ ಡೀಪ್​ಫೇಕ್ ವಿಡಿಯೋ

|

Updated on: Apr 11, 2024 | 10:35 AM

Deepfake video of NSE MD Ashishkumar Chauhan: ಡೀಪ್​ಫೇಕ್ ತಂತ್ರಜ್ಞಾನ ಸಾಕಷ್ಟು ಉಪದ್ರವಕಾರಿಯಾಗಿ ಪರಿಣಮಿಸುತ್ತಿದೆ. ಎನ್​ಎಸ್​ಇ ಸಿಇಒ ಆಶೀಶ್ ಕುಮಾರ್ ಚೌಹಾಣ್ ಅವರು ಷೇರು ಸಲಹೆ ನೀಡುತ್ತಿರುವ ವಿಡಿಯೋವೊಂದು ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ಹರಿದಾಡುತ್ತಿದೆ. ಷೇರು ವಿನಿಮಯ ಕೇಂದ್ರದ ಮುಖ್ಯಸ್ಥರೇ ಸ್ಟಾಕ್ ರೆಕಮಂಡೇಶನ್ ಮಾಡಿದರೆ ಅದರ ಪ್ರಭಾವ ಹೆಚ್ಚಿರುತ್ತದೆ. ಈ ವಿಡಿಯೋದಲ್ಲಿ ಮಾತನಾಡಿರುವುದು ಚೌಹಾಣ್ ಅವರಲ್ಲ. ಅದು ನಕಲಿ ವಿಡಿಯೋ ಎಂದು ಎನ್​ಎಸ್​ಇ ಹೇಳಿದೆ.

ಇದು ಅವರಲ್ಲ, ಅವರಲ್ಲ..! ಎನ್​ಎಸ್​ಇ ಸಿಇಒ ಆಶೀಶ್​ಕುಮಾರ್ ಚೌಹಾಣ್ ಡೀಪ್​ಫೇಕ್ ವಿಡಿಯೋ
ಆಶೀಶ್​ಕುಮಾರ್ ಚೌಹಾಣ್
Follow us on

ನವದೆಹಲಿ, ಏಪ್ರಿಲ್ 11: ಡೀಪ್​ಫೇಕ್ ವಿಡಿಯೋ ಇವತ್ತಿನ ಸೋಷಿಯಲ್ ಮೀಡಿಯಾ ಕಾಲಘಟ್ಟದಲ್ಲಿ ಸಾಕಷ್ಟು ಅನಾಹುತ ಸೃಷ್ಟಿಸಬಲ್ಲುದಾಗಿದೆ. ಸೆಲಬ್ರಿಟಿಗಳ ಡೀಪ್​ಫೇಕ್ ವಿಡಿಯೋಗಳನ್ನು (deepfake video) ನೋಡಿದ್ದೇವೆ. ಕೆಲ ಉದ್ಯಮಿಗಳ ಡೀಪ್​ಫೇಕ್ ವಿಡಿಯೋ ಸೃಷ್ಟಿಸಲಾಗಿದೆ. ಪ್ರಧಾನಿಗಳನ್ನೂ ಬಿಟ್ಟಿಲ್ಲ. ಸೋಷಿಯಲ್ ಮೀಡಿಯಾ ಪ್ರಭಾವ ಹಿಂದೆಂದಿಗಿಂತಲೂ ಹೆಚ್ಚಿರುವುದರಿಂದ ಡೀಪ್​ಫೇಕ್ ವಿಡಿಯೋದಿಂದ ಆಗಬಹುದಾದ ಅಪಾಯ ನಿಜಕ್ಕೂ ಊಹೆಗೂ ನಿಲುಕದ್ದು. ಇದೇ ವೇಳೆ, ನ್ಯಾಷನಲ್ ಸ್ಟಾಕ್ ಎಕ್ಸ್​ಚೇಂಜ್​ನ ಎಂಡಿ ಮತ್ತು ಸಿಇಒ ಆಶೀಶ್ ಕುಮಾರ್ ಚೌಹಾಣ್ (Ashishkumar Chauhan) ಅವರು ಮಾತನಾಡುತ್ತಿರುವ ಒಂದು ವಿಡಿಯೋ ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ಹರಿದಾಡುತ್ತಿದೆ. ಈ ವಿಡಿಯೋದಲ್ಲಿ ಚೌಹಾಣ್ ಅವರು ಯಾವ ಷೇರುಗಳನ್ನು ಖರೀದಿಸಬೇಕು, ಬೇಡ ಎಂಬ ಸ್ಟಾಕ್ ರೆಕಮಂಡೇಶನ್ ಮಾಡುತ್ತಿದ್ದಾರೆ.

ಷೇರುಗಳ ವಹಿವಾಟು ನಡೆಯುವ ಒಂದು ಸ್ಟಾಕ್ ಎಕ್ಸ್​ಚೇಂಜ್ ಕೇಂದ್ರದ ಮುಖ್ಯಸ್ಥರೇ ಷೇರುಗಳ ಶಿಫಾರಸು ಮಾಡುತ್ತಿದ್ದಾರೆಂದರೆ ಅದು ಅದೆಷ್ಟು ಮಂದಿಯ ಮೇಲೆ ಪ್ರಭಾವ ಬೀರಬಹುದು ನೋಡಿ. ಆದರೆ, ಈ ವಿಡಿಯೋದಲ್ಲಿ ಇರುವುದು ಸಿಇಒ ಆಶೀಶ್ ಕುಮಾರ್ ಚೌಹಾಣ್ ಅಲ್ಲ. ಇದು ಫೇಕ್ ವಿಡಿಯೋ ಎಂದು ಎನ್​ಎಸ್​ಇ ಸಂಸ್ಥೆ ನಿನ್ನೆ ಬುಧವಾರ ಎಚ್ಚರಿಸಿದೆ.

ಇದನ್ನೂ ಓದಿ: ಏವಿಯೇಶನ್ ಕಂಪನಿಗಳ ಮಾರುಕಟ್ಟೆ ಮೌಲ್ಯದಲ್ಲಿ ಭಾರತದ ಇಂಡಿಗೋ ಏರ್ಲೈನ್ಸ್ ವಿಶ್ವದ ನಂಬರ್ 3

‘ಹೂಡಿಕೆದಾರರು ಇಂಥ ಆಡಿಯೋ ಅಥವಾ ವಿಡಿಯೋಗಳನ್ನು ನಂಬಬಾರದು. ಈ ನಕಲಿ ವಿಡಿಯೋ ಅಥವಾ ಇತರೆ ಮಾಧ್ಯಮಗಳಿಂದ ಬರುವ ಇಂಥ ಹೂಡಿಕೆ ಸಲಹೆಯನ್ನು ಯಾರೂ ಪರಿಗಣಿಸಬಾರದು’ ಎಂದು ನ್ಯಾಷನಲ್ ಸ್ಟಾಕ್ ಎಕ್ಸ್​ಚೇಂಜ್ ಹೇಳಿಕೆ ನೀಡಿದೆ.

ಎನ್​ಎಸ್​ಇಯ ಸಿಇಒ ಸೇರಿದಂತೆ ಅದರ ಯಾವ ಉದ್ಯೋಗಿಯೂ ಕೂಡ ಯಾವುದೇ ಷೇರುಗಳನ್ನು ಸಾರ್ವಜನಿಕವಾಗಿ ಶಿಫಾರಸು ಮಾಡುವಂತಿಲ್ಲ ಎಂಬ ನಿಯಮ ಇದೆ. ಈ ಹಿನ್ನೆಲೆಯಲ್ಲಿ ಎನ್​ಎಸ್​ಇ ಸಿಇಒ ಅವರು ಷೇರು ಸಲಹೆ ನೀಡುತ್ತಿರುವ ವಿಡಿಯೋ ನಕಲಿ ಎಂಬುದು ಮೇಲ್ನೋಟಕ್ಕೆ ತೋರುತ್ತದೆ.

ಎನ್​ಎಸ್​ಇ ಪ್ರಕಾರ ಈ ವಿಡಿಯೋವನ್ನು ಡೀಪ್​ಫೇಕ್ ತಂತ್ರಜ್ಞಾನದಿಂದ ಸೃಷ್ಟಿಸಲಾಗಿದೆ. ಚೌಹಾಣ್ ಅವರ ಧ್ವನಿ ಮತ್ತು ಮೌಖಿಕ ಭಾವನೆಗಳನ್ನು ಡೀಪ್​ಫೇಕ್ ಮೂಲಕ ಅನುಕರಿಸಲಾಗಿದೆ. ಇದೇ ವೇಳೆ, ಇಂಥ ವಿಡಿಯೋಗಳಿದ್ದರೆ ಅದನ್ನು ತೆಗೆದುಹಾಕಿಸಲು ವಿವಿಧ ಪ್ಲಾಟ್​ಫಾರ್ಮ್​ಗಳಿಗೆ ಎನ್ಎಸ್​ಇ ಮನವಿ ಮಾಡುತ್ತಿದೆ.

ಇದನ್ನೂ ಓದಿ: ಎನ್​ವಿಡಿಯಾ ಭದ್ರಕೋಟೆ ಭೇದಿಸಲು ಇಂಟೆಲ್ ಬಳಿ ಗೌಡಿ-3 ಅಸ್ತ್ರ; ಭಾರತದಲ್ಲಿ ಇನ್ಫೋಸಿಸ್, ಏರ್ಟೆಲ್, ಒಲಾ ಜೊತೆ ಗುತ್ತಿಗೆ

ಡೀಪ್​ಫೇಕ್ ವಿಡಿಯೋವನ್ನು ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟೆಲಿಜೆನ್ಸ್ ತಂತ್ರಜ್ಞಾನ ಬಳಸಿ ಸೃಷ್ಟಿಸಬಹುದು. ಯಾರದ್ದೋ ದೇಹಕ್ಕೆ ಇನ್ನಾರದ್ದೋ ತಲೆ ಸೇರಿಸಿ, ಆ ವ್ಯಕ್ತಿಯ ಹಾವಭಾವವನ್ನು ಕೃತಕವಾಗಿ ಸೃಷ್ಟಿಸಿ ತಯಾರಿಸಲಾಗುವ ವಿಡಿಯೋವನ್ನು ನೋಡಿದರೆ ಮೇಲ್ನೋಟಕ್ಕೆ ಇದು ನಕಲಿ ವಿಡಿಯೋ ಎಂದು ಯಾರಿಗೂ ಭಾಸವಾಗುವುದಿಲ್ಲ. ಆ ಮಟ್ಟಿಗೆ ಇಂಥ ಡೀಪ್​ಫೇಕ್ ವಿಡಿಯೋಗಳು ನಕಲಿಯಾಗಿವೆ.

ಇನ್ನಷ್ಟು ವಾಣಿಜ್ಯ ಸುದ್ದಿಗಳಿಗೆ ಇಲ್ಲಿ ಕ್ಲಿಕ್ ಮಾಡಿ

ಬಿಸಿನೆಸ್ ವೆಬ್ ಸ್ಟೋರಿಗಳಿಗೆ ಇಲ್ಲಿ ಕ್ಲಿಕ್ ಮಾಡಿ