ಇದು ಅವರಲ್ಲ, ಅವರಲ್ಲ..! ಎನ್ಎಸ್ಇ ಸಿಇಒ ಆಶೀಶ್ಕುಮಾರ್ ಚೌಹಾಣ್ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋ
Deepfake video of NSE MD Ashishkumar Chauhan: ಡೀಪ್ಫೇಕ್ ತಂತ್ರಜ್ಞಾನ ಸಾಕಷ್ಟು ಉಪದ್ರವಕಾರಿಯಾಗಿ ಪರಿಣಮಿಸುತ್ತಿದೆ. ಎನ್ಎಸ್ಇ ಸಿಇಒ ಆಶೀಶ್ ಕುಮಾರ್ ಚೌಹಾಣ್ ಅವರು ಷೇರು ಸಲಹೆ ನೀಡುತ್ತಿರುವ ವಿಡಿಯೋವೊಂದು ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ಹರಿದಾಡುತ್ತಿದೆ. ಷೇರು ವಿನಿಮಯ ಕೇಂದ್ರದ ಮುಖ್ಯಸ್ಥರೇ ಸ್ಟಾಕ್ ರೆಕಮಂಡೇಶನ್ ಮಾಡಿದರೆ ಅದರ ಪ್ರಭಾವ ಹೆಚ್ಚಿರುತ್ತದೆ. ಈ ವಿಡಿಯೋದಲ್ಲಿ ಮಾತನಾಡಿರುವುದು ಚೌಹಾಣ್ ಅವರಲ್ಲ. ಅದು ನಕಲಿ ವಿಡಿಯೋ ಎಂದು ಎನ್ಎಸ್ಇ ಹೇಳಿದೆ.
ನವದೆಹಲಿ, ಏಪ್ರಿಲ್ 11: ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋ ಇವತ್ತಿನ ಸೋಷಿಯಲ್ ಮೀಡಿಯಾ ಕಾಲಘಟ್ಟದಲ್ಲಿ ಸಾಕಷ್ಟು ಅನಾಹುತ ಸೃಷ್ಟಿಸಬಲ್ಲುದಾಗಿದೆ. ಸೆಲಬ್ರಿಟಿಗಳ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋಗಳನ್ನು (deepfake video) ನೋಡಿದ್ದೇವೆ. ಕೆಲ ಉದ್ಯಮಿಗಳ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋ ಸೃಷ್ಟಿಸಲಾಗಿದೆ. ಪ್ರಧಾನಿಗಳನ್ನೂ ಬಿಟ್ಟಿಲ್ಲ. ಸೋಷಿಯಲ್ ಮೀಡಿಯಾ ಪ್ರಭಾವ ಹಿಂದೆಂದಿಗಿಂತಲೂ ಹೆಚ್ಚಿರುವುದರಿಂದ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋದಿಂದ ಆಗಬಹುದಾದ ಅಪಾಯ ನಿಜಕ್ಕೂ ಊಹೆಗೂ ನಿಲುಕದ್ದು. ಇದೇ ವೇಳೆ, ನ್ಯಾಷನಲ್ ಸ್ಟಾಕ್ ಎಕ್ಸ್ಚೇಂಜ್ನ ಎಂಡಿ ಮತ್ತು ಸಿಇಒ ಆಶೀಶ್ ಕುಮಾರ್ ಚೌಹಾಣ್ (Ashishkumar Chauhan) ಅವರು ಮಾತನಾಡುತ್ತಿರುವ ಒಂದು ವಿಡಿಯೋ ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ಹರಿದಾಡುತ್ತಿದೆ. ಈ ವಿಡಿಯೋದಲ್ಲಿ ಚೌಹಾಣ್ ಅವರು ಯಾವ ಷೇರುಗಳನ್ನು ಖರೀದಿಸಬೇಕು, ಬೇಡ ಎಂಬ ಸ್ಟಾಕ್ ರೆಕಮಂಡೇಶನ್ ಮಾಡುತ್ತಿದ್ದಾರೆ.
ಷೇರುಗಳ ವಹಿವಾಟು ನಡೆಯುವ ಒಂದು ಸ್ಟಾಕ್ ಎಕ್ಸ್ಚೇಂಜ್ ಕೇಂದ್ರದ ಮುಖ್ಯಸ್ಥರೇ ಷೇರುಗಳ ಶಿಫಾರಸು ಮಾಡುತ್ತಿದ್ದಾರೆಂದರೆ ಅದು ಅದೆಷ್ಟು ಮಂದಿಯ ಮೇಲೆ ಪ್ರಭಾವ ಬೀರಬಹುದು ನೋಡಿ. ಆದರೆ, ಈ ವಿಡಿಯೋದಲ್ಲಿ ಇರುವುದು ಸಿಇಒ ಆಶೀಶ್ ಕುಮಾರ್ ಚೌಹಾಣ್ ಅಲ್ಲ. ಇದು ಫೇಕ್ ವಿಡಿಯೋ ಎಂದು ಎನ್ಎಸ್ಇ ಸಂಸ್ಥೆ ನಿನ್ನೆ ಬುಧವಾರ ಎಚ್ಚರಿಸಿದೆ.
ಇದನ್ನೂ ಓದಿ: ಏವಿಯೇಶನ್ ಕಂಪನಿಗಳ ಮಾರುಕಟ್ಟೆ ಮೌಲ್ಯದಲ್ಲಿ ಭಾರತದ ಇಂಡಿಗೋ ಏರ್ಲೈನ್ಸ್ ವಿಶ್ವದ ನಂಬರ್ 3
‘ಹೂಡಿಕೆದಾರರು ಇಂಥ ಆಡಿಯೋ ಅಥವಾ ವಿಡಿಯೋಗಳನ್ನು ನಂಬಬಾರದು. ಈ ನಕಲಿ ವಿಡಿಯೋ ಅಥವಾ ಇತರೆ ಮಾಧ್ಯಮಗಳಿಂದ ಬರುವ ಇಂಥ ಹೂಡಿಕೆ ಸಲಹೆಯನ್ನು ಯಾರೂ ಪರಿಗಣಿಸಬಾರದು’ ಎಂದು ನ್ಯಾಷನಲ್ ಸ್ಟಾಕ್ ಎಕ್ಸ್ಚೇಂಜ್ ಹೇಳಿಕೆ ನೀಡಿದೆ.
ಎನ್ಎಸ್ಇಯ ಸಿಇಒ ಸೇರಿದಂತೆ ಅದರ ಯಾವ ಉದ್ಯೋಗಿಯೂ ಕೂಡ ಯಾವುದೇ ಷೇರುಗಳನ್ನು ಸಾರ್ವಜನಿಕವಾಗಿ ಶಿಫಾರಸು ಮಾಡುವಂತಿಲ್ಲ ಎಂಬ ನಿಯಮ ಇದೆ. ಈ ಹಿನ್ನೆಲೆಯಲ್ಲಿ ಎನ್ಎಸ್ಇ ಸಿಇಒ ಅವರು ಷೇರು ಸಲಹೆ ನೀಡುತ್ತಿರುವ ವಿಡಿಯೋ ನಕಲಿ ಎಂಬುದು ಮೇಲ್ನೋಟಕ್ಕೆ ತೋರುತ್ತದೆ.
ಎನ್ಎಸ್ಇ ಪ್ರಕಾರ ಈ ವಿಡಿಯೋವನ್ನು ಡೀಪ್ಫೇಕ್ ತಂತ್ರಜ್ಞಾನದಿಂದ ಸೃಷ್ಟಿಸಲಾಗಿದೆ. ಚೌಹಾಣ್ ಅವರ ಧ್ವನಿ ಮತ್ತು ಮೌಖಿಕ ಭಾವನೆಗಳನ್ನು ಡೀಪ್ಫೇಕ್ ಮೂಲಕ ಅನುಕರಿಸಲಾಗಿದೆ. ಇದೇ ವೇಳೆ, ಇಂಥ ವಿಡಿಯೋಗಳಿದ್ದರೆ ಅದನ್ನು ತೆಗೆದುಹಾಕಿಸಲು ವಿವಿಧ ಪ್ಲಾಟ್ಫಾರ್ಮ್ಗಳಿಗೆ ಎನ್ಎಸ್ಇ ಮನವಿ ಮಾಡುತ್ತಿದೆ.
ಇದನ್ನೂ ಓದಿ: ಎನ್ವಿಡಿಯಾ ಭದ್ರಕೋಟೆ ಭೇದಿಸಲು ಇಂಟೆಲ್ ಬಳಿ ಗೌಡಿ-3 ಅಸ್ತ್ರ; ಭಾರತದಲ್ಲಿ ಇನ್ಫೋಸಿಸ್, ಏರ್ಟೆಲ್, ಒಲಾ ಜೊತೆ ಗುತ್ತಿಗೆ
ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋವನ್ನು ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟೆಲಿಜೆನ್ಸ್ ತಂತ್ರಜ್ಞಾನ ಬಳಸಿ ಸೃಷ್ಟಿಸಬಹುದು. ಯಾರದ್ದೋ ದೇಹಕ್ಕೆ ಇನ್ನಾರದ್ದೋ ತಲೆ ಸೇರಿಸಿ, ಆ ವ್ಯಕ್ತಿಯ ಹಾವಭಾವವನ್ನು ಕೃತಕವಾಗಿ ಸೃಷ್ಟಿಸಿ ತಯಾರಿಸಲಾಗುವ ವಿಡಿಯೋವನ್ನು ನೋಡಿದರೆ ಮೇಲ್ನೋಟಕ್ಕೆ ಇದು ನಕಲಿ ವಿಡಿಯೋ ಎಂದು ಯಾರಿಗೂ ಭಾಸವಾಗುವುದಿಲ್ಲ. ಆ ಮಟ್ಟಿಗೆ ಇಂಥ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋಗಳು ನಕಲಿಯಾಗಿವೆ.
ಇನ್ನಷ್ಟು ವಾಣಿಜ್ಯ ಸುದ್ದಿಗಳಿಗೆ ಇಲ್ಲಿ ಕ್ಲಿಕ್ ಮಾಡಿ
ಬಿಸಿನೆಸ್ ವೆಬ್ ಸ್ಟೋರಿಗಳಿಗೆ ಇಲ್ಲಿ ಕ್ಲಿಕ್ ಮಾಡಿ