ਲੋਕ ਸਭਾ ਚੋਣਾਂ 2024 ਵਿਚ ਹੋਵੇਗੀ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੀ ਵਰਤੋਂ

ਲੋਕ ਸਭਾ ਚੋਣਾਂ 2024 ਵਿਚ ਹੋਵੇਗੀ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੀ ਵਰਤੋਂ

ਕਾਂਗਰਸ ਤੇ ਭਾਜਪਾ ਵੋਟਰਾਂ ਨੂੰ ਲੁਭਾਉਣ ਲਈ ਪਾਰਟੀ ਦੇ ਕੁਝ ਮਰ ਚੁੱਕੇ ਨੇਤਾਵਾਂ ਨੂੰ ਮੁੜ ਸੁਰਜੀਤ ਕਰੇਗੀ

*ਭਾਰਤੀ ਜਨਤਾ ਪਾਰਟੀ ਬਾਕੀ ਪਾਰਟੀਆਂ ਨਾਲੋਂ ਮੋਹਰੀ

ਵਰਤਮਾਨ ਸਮੇਂ ਵਿਚ ਭਾਰਤੀ ਸਿਆਸਤ ਇੱਕ ਵੱਡੀ ਤਬਦੀਲੀ ਵੱਲ ਵਧ ਰਹੀ ਹੈ ਜਿੱਥੇ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੀ ਚੋਣ ਮੁਹਿੰਮਾਂ ਵਿੱਚ ਵਰਤੋਂ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ। ਨਵੀਂ ਤਕਨੀਕ ਅਨੁਸਾਰ ਭਾਜਪਾ ਅਤੇ ਇਸ ਦੇ ਆਗੂ ਅੱਗੇ ਵੱਧ ਰਹੇ ਹਨ ਅਤੇ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਵੀ ਇਸ ਵਿੱਚ ਮੋਹਰੀ ਹਨ। ਭਾਜਪਾ ਨੇ ਮੋਦੀ ਜੀ ਦੇ ਭਾਸ਼ਣਾਂ ਦਾ ਵੱਖ-ਵੱਖ ਭਾਸ਼ਾਵਾਂ ਵਿੱਚ ਅਨੁਵਾਦ ਕਰਨ ਲਈ ਏਆਈ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਹੈ, ਜੋ ਕਿ ਚੋਣ ਪ੍ਰਚਾਰ ਵਿੱਚ ਇੱਕ ਨਵਾਂ ਮੋੜ ਹੈ। ਪੀਐਮ ਮੋਦੀ ਦਾ ਭਾਸ਼ਣ ਸੋਸ਼ਲ ਮੀਡੀਆ 'ਤੇ ਬੰਗਾਲੀ, ਕੰਨੜ, ਤਾਮਿਲ, ਤੇਲਗੂ, ਪੰਜਾਬੀ, ਮਰਾਠੀ, ਉੜੀਆ ਅਤੇ ਮਲਿਆਲਮ ਭਾਸ਼ਾਵਾਂ ਵਿੱਚ ਵੀ ਸੁਣਿਆ ਜਾ ਸਕਦਾ ਹੈ।

ਦਸੰਬਰ 2023 ਵਿੱਚ ਉੱਤਰ ਪ੍ਰਦੇਸ਼ ਵਿੱਚ ਇੱਕ ਸਮਾਗਮ ਦੌਰਾਨ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਦੇ ਹਿੰਦੀ ਭਾਸ਼ਣ ਦਾ ਤਾਮਿਲ ਵਿੱਚ ਅਨੁਵਾਦ ਕਰਨ ਲਈ ਇੱਕ ਵਿਸ਼ੇਸ਼ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਟੂਲ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਗਈ ਸੀ। ਇਹ ਟੂਲ ਰੀਅਲ ਟਾਈਮ ਵਿੱਚ ਕੰਮ ਕਰਦਾ ਹੈ, ਯਾਨੀ ਕਿ ਇਹ ਭਾਸ਼ਣ ਕਰਦੇ ਹੋਏ ਹੀ ਅਨੁਵਾਦ ਵੀ ਕਰ ਦਿੰਦਾ ਹੈ। 

ਹਾਲ ਹੀ ਵਿਚ ਇਕ ਖਬਰ ਆਈ ਹੈ, ਕਿ ਦੇਸ਼ ਦੀਆਂ ਦੋ ਵੱਡੀਆਂ ਪਾਰਟੀਆਂ ਕਾਂਗਰਸ ਤੇ ਭਾਜਪਾ ਆਉਣ ਵਾਲੀਆਂ ਲੋਕ ਸਭਾ ਚੋਣਾਂ ਦੇ ਮੱਦੇਨਜ਼ਰ ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਤਕਨੀਕ ਰਾਹੀਂ ਆਪਣੇ ਵੋਟਰਾਂ ਨੂੰ ਲੁਭਾਉਣ ਲਈ ਪਾਰਟੀ ਦੇ ਕੁਝ ਮਰ ਚੁੱਕੇ ਨੇਤਾਵਾਂ ਨੂੰ ਮੁੜ ਸੁਰਜੀਤ ਕਰੇਗੀ, ਜੋ ਆਪਣੇ ਜੀਵਨ ਕਾਲ ਦੌਰਾਨ ਵੋਟਰਾਂ ਵਿਚ ਬਹੁਤ ਮਸ਼ਹੂਰ ਸਨ।ਇਨ੍ਹਾਂ ਵਿੱਚ ਭਾਜਪਾ ਸਾਬਕਾ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਅਟਲ ਬਿਹਾਰੀ ਵਾਜਪਾਈ, ਲਾਲ ਕ੍ਰਿਸ਼ਨ ਅਡਵਾਨੀ, ਅਰੁਣ ਜੇਤਲੀ, ਸੁਸ਼ਮਾ ਸਵਰਾਜ ਆਦਿ ਦੇ ਏਆਈ ਅਵਤਾਰਾਂ ਰਾਹੀਂ ਆਪਣੀਆਂ ਪ੍ਰਾਪਤੀਆਂ ਗਿਣਾਏਗੀ। ਇਸ ਦੇ ਨਾਲ ਹੀ ਕਾਂਗਰਸ ਮਹਾਤਮਾ ਗਾਂਧੀ, ਨਹਿਰੂ ਅਤੇ ਸਰਦਾਰ ਪਟੇਲ ਦੇ ਅਵਤਾਰਾਂ ਦੀ ਮਦਦ ਨਾਲ ਕਾਂਗਰਸ ਸਰਕਾਰਾਂ ਵਿਰੁੱਧ ਭਾਜਪਾ ਦੀ ਮੁਹਿੰਮ ਦਾ ਮੁਕਾਬਲਾ ਕਰੇਗੀ।ਇਸ ਨਵੀਂ ਤਕਨੀਕ ਦੀ ਵਰਤੋਂ ਨਾਲ ਚੋਣ ਮੁਹਿੰਮ ਨੂੰ ਹੋਰ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਬਣਾਇਆ ਜਾ ਸਕੇਗਾ ।

ਪਾਕਿਸਤਾਨ ਦੀਆਂ ਆਮ ਚੋਣਾਂ ਵਿਚ ਵਿੱਚ ਹੋਇਆ ਏ.ਆਈ. ਦਾ ਇਸਤੇਮਾਲ

ਹਾਲ ਹੀ ਵਿਚ ਪਾਕਿਸਤਾਨ ਦੀਆਂ ਆਮ ਚੋਣਾਂ ਵਿਚ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੀ ਵਰਤੋਂ ਦੇਖਣ ਨੂੰ ਮਿਲੀ ਸੀ। ਇਮਰਾਨ ਖ਼ਾਨ ਦੀ ਪਾਰਟੀ ਪਾਕਿਸਤਾਨ ਤਹਿਰੀਕ-ਏ-ਇਨਸਾਫ਼ (ਪੀ.ਟੀ.ਆਈ.) ਨੇ ਉਨ੍ਹਾਂ ਦੇ ਨਵੇਂ ਭਾਸ਼ਣਾਂ ਵਿੱਚ ਉਨ੍ਹਾਂ ਦੀ ਆਵਾਜ਼ ਦੀ ਨਕਲ ਕਰਨ ਲਈ ਏਆਈ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਜਦੋਂ ਇਮਰਾਨ ਖ਼ਾਨ ਖ਼ੁਦ ਜੇਲ੍ਹ ਵਿੱਚ ਸਨ। ਇਸ ਸਾਲ ਜਨਵਰੀ ਵਿੱਚ ਬੰਗਲਾਦੇਸ਼ ਦੀਆਂ ਚੋਣਾਂ ਵਿੱਚ ਉਲਟਾ ਹੋਇਆ। ਉੱਥੇ ਵਿਰੋਧੀ ਪਾਰਟੀਆਂ ਨੇ ਦੋਸ਼ ਲਾਇਆ ਕਿ ਸਰਕਾਰ ਸਮਰਥਕਾਂ ਨੇ ਗਲਤ ਕੰਮਾਂ ਲਈ ਏ.ਆਈ. ਦੀ ਵਰਤੋਂ ਕੀਤੀ। ਇੱਥੋਂ ਤੱਕ ਕਿ ਵਿਰੋਧੀ ਧਿਰ ਨੂੰ ਜ਼ਲੀਲ ਕਰਨ ਲਈ ਫਰਜ਼ੀ ਵੀਡੀਓ (ਡੀਪ ਫੇਕ) ਵੀ ਬਣਾਏ ਗਏ। ਚੀਨ ਅਤੇ ਰੂਸ 'ਤੇ ਇਹ ਦੋਸ਼ ਹਨ ਕਿ ਉਹ ਦੂਜੇ ਦੇਸ਼ਾਂ ਦੀਆਂ ਚੋਣਾਂ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰਨ ਲਈ ਏ.ਆਈ. ਦਾ ਇਸਤੇਮਾਲ ਕਰਦੇ ਹਨ ਖ਼ਾਸਕਰਕੇ ਤਾਈਵਾਨ ਵਿਚ।

ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੀ ਦੁਰਵਰਤੋਂ ਦਾ ਖਤਰਾ

ਹਾਲਾਂਕਿ, ਇਸ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਦਾ ਵੀ ਖਤਰਾ ਹੈ, ਜਿਵੇਂ ਕਿ ਜਾਅਲੀ ਖਬਰਾਂ ਫੈਲਾਉਣਾ। ਇਸ ਲਈ, ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ਨੂੰ ਅਜਿਹੀ ਗਲਤ ਜਾਣਕਾਰੀ ਨੂੰ ਰੋਕਣ ਲਈ ਸਖਤ ਨਿਯਮਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਇਹ ਫੇਕ ਨਿਊਜ਼ ਲੋਕਾਂ ਨੂੰ ਆਪਸ ਵਿੱਚ ਲੜਾ ਸਕਦੀਆਂ ਹਨ। ਕਈ ਵੱਡੇ ਲੋਕ ਵੀ ਇਸ ਤਕਨੀਕ ਨੂੰ ਲੈ ਕੇ ਚਿੰਤਤ ਹਨ। ਉਨ੍ਹਾਂ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਪਹਿਲਾਂ ਅਸੀਂ ਅਖਬਾਰਾਂ ਅਤੇ ਟੀ.ਵੀ. ਤੋਂ ਖਬਰਾਂ ਪੜ੍ਹਦੇ ਅਤੇ ਦੇਖਦੇ ਸੀ। ਹੁਣ ਫੇਸਬੁੱਕ, ਗੂਗਲ, ਇੰਸਟਾਗ੍ਰਾਮ ਅਤੇ ਵਟਸਐਪ ਵਰਗੀਆਂ ਚੀਜ਼ਾਂ 'ਤੇ ਬਹੁਤ ਭਰੋਸਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ।

ਇਨ੍ਹਾਂ ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮ 'ਤੇ ਜਾਅਲੀ ਖ਼ਬਰਾਂ ਬਹੁਤ ਤੇਜ਼ੀ ਅਤੇ ਆਸਾਨੀ ਨਾਲ ਫੈਲ ਜਾਂਦੀਆਂ ਹਨ। ਇੱਕ ਸਰਵੇਖਣ ਵਿੱਚ, 87 ਪ੍ਰਤੀਸ਼ਤ ਲੋਕਾਂ ਨੇ ਸਹਿਮਤੀ ਦਿੱਤੀ ਕਿ ਜਾਅਲੀ ਖ਼ਬਰਾਂ ਚੋਣਾਂ ਨੂੰ ਸਭ ਤੋਂ ਵੱਧ ਪ੍ਰਭਾਵਿਤ ਕਰਦੀਆਂ ਹਨ। ਇਹ ਨਵੀਂ ਤਕਨੀਕ ਸਾਡੀ ਪਸੰਦ-ਨਾਪਸੰਦ ਨੂੰ ਸਮਝ ਸਕਦੀ ਹੈ ਅਤੇ ਅਜਿਹੀਆਂ ਖ਼ਬਰਾਂ ਦਿਖਾ ਸਕਦੀ ਹੈ ਜਿਸ ਨੂੰ ਅਸੀਂ ਸੱਚ ਮੰਨ ਲਵਾਂਗੇ। ਇਸ ਦੀ ਵਰਤੋਂ ਨੇਤਾ ਦੇ ਅਕਸ ਨੂੰ ਖਰਾਬ ਕਰਨ ਲਈ ਵੀ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ। ਉਨ੍ਹਾਂ ਦੇ ਬਿਆਨ ਮਨਘੜਤ ਹੋ ਸਕਦੇ ਹਨ ਜਾਂ ਉਨ੍ਹਾਂ ਦੇ ਵਿਚਾਰਾਂ ਨੂੰ ਤੋੜ-ਮਰੋੜ ਕੇ ਪੇਸ਼ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ।

ਇਹ ਫਰਜ਼ੀ ਖਬਰ ਸਿਰਫ ਲਿਖਤੀ ਰੂਪ ਵਿੱਚ ਹੀ ਨਹੀਂ, ਸਗੋਂ ਵੀਡੀਓ ਅਤੇ ਆਵਾਜ਼ ਵਿੱਚ ਵੀ ਹੋ ਸਕਦੀ ਹੈ, ਜਿਸ ਦੀ ਅਸਲੀਅਤ ਨੂੰ ਸਮਝਣਾ ਬਹੁਤ ਮੁਸ਼ਕਲ ਹੈ। ਚੋਣਾਂ ਵਿਚ ਉਮੀਦਵਾਰ ਦੀ ਜਿੱਤ ਜਾਂ ਹਾਰ ਦਾ ਨਤੀਜਿਆਂ 'ਤੇ ਵੱਡਾ ਅਸਰ ਪੈ ਸਕਦਾ ਹੈ। ਅਜੇ ਤੱਕ ਅਜਿਹਾ ਨਹੀਂ ਹੋਇਆ ਹੈ, ਪਰ ਚਿੰਤਾ ਹੈ ਕਿ ਭਵਿੱਖ ਵਿੱਚ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੀ ਵਰਤੋਂ ਵੋਟਾਂ ਦੀ ਗਿਣਤੀ ਵਿੱਚ ਬੇਨਿਯਮੀਆਂ ਕਰਨ ਲਈ ਵੀ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ। ਅਜਿਹੇ ਵਿੱਚ ਸਵਾਲ ਇਹ ਉੱਠਦਾ ਹੈ ਕਿ ਕੀ ਨਿਰਪੱਖ ਚੋਣਾਂ ਕਰਵਾਉਣਾ ਸੰਭਵ ਹੋਵੇਗਾ? ਇਹ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਟੂਲ ਇੰਨੇ ਵਧੀਆ ਹਨ ਕਿ ਇਹ ਪਤਾ ਲਗਾਉਣਾ ਮੁਸ਼ਕਲ ਹੋ ਜਾਂਦਾ ਹੈ ਕਿ ਅਸਲ ਵਿੱਚ ਗਲਤ ਕੰਮ ਕਿਸ ਨੇ ਕੀਤਾ।

ਚੋਣ ਕਮਿਸ਼ਨ ਦਾ ਗੂਗਲ ਨਾਲ ਭਾਈਵਾਲੀ ਕਰਨ ਦਾ ਫੈਸਲਾ

ਚੋਣ ਕਮਿਸ਼ਨ ਦਾ ਗੂਗਲ ਨਾਲ ਭਾਈਵਾਲੀ ਕਰਨ ਦਾ ਫੈਸਲਾ ਇਕ ਸਕਾਰਾਤਮਕ ਕਦਮ ਹੈ, ਜਿਸ ਨਾਲ ਲੋਕਾਂ ਨੂੰ ਸਹੀ ਅਤੇ ਜ਼ਰੂਰੀ ਜਾਣਕਾਰੀ ਮਿਲ ਸਕੇ। ਅਜਿਹੀਆਂ ਪਹਿਲਕਦਮੀਆਂ ਨਾਲ ਨਿਰਪੱਖ ਚੋਣਾਂ ਦੀ ਸੰਭਾਵਿਤ ਉਮੀਦ ਹੈ। ਪਰ, ਇਸ ਨਵੀਂ ਤਕਨੀਕ ਦੀ ਦੁਰਵਰਤੋਂ ਨਾਲ ਜੁੜੀਆਂ ਚੁਣੌਤੀਆਂ ਨੂੰ ਧਿਆਨ ਵਿੱਚ ਰੱਖਦੇ ਹੋਏ, ਇਸ ਨੂੰ ਸਹੀ ਢੰਗ ਨਾਲ ਕੰਟਰੋਲ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਤਾਂ ਜੋ ਇਹ ਚੋਣ ਪ੍ਰਕਿਰਿਆ ਨੂੰ ਗਲਤ ਦਿਸ਼ਾ ਨਾ ਦੇਣ। ਹੁਣ ਚੋਣਾਂ ਨਾਲ ਜੁੜੀ ਮਹੱਤਵਪੂਰਨ ਜਾਣਕਾਰੀ (ਜਿਵੇਂ ਕਿ ਵੋਟਰ ਰਜਿਸਟ੍ਰੇਸ਼ਨ ਅਤੇ ਵੋਟ ਪਾਉਣ ਦਾ ਤਰੀਕਾ) ਯੂਟਿਊਬ ਅਤੇ ਗੂਗਲ ਸਰਚ 'ਤੇ ਆਸਾਨੀ ਨਾਲ ਉਪਲਬਧ ਹੋਵੇਗੀ। ਨਾਲ ਹੀ, ਗੂਗਲ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਫੈਲਣ ਨੂੰ ਰੋਕਣ ਲਈ ਵਿਸ਼ੇਸ਼ ਤਕਨੀਕ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੀ ਵਰਤੋਂ ਕਰ ਰਿਹਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ ਗੂਗਲ ਚੋਣ ਸੰਬੰਧੀ ਇਸ਼ਤਿਹਾਰ ਦਿਖਾਉਣ ਲਈ ਵੀ ਸਖਤ ਨਿਯਮ ਲਾਗੂ ਕਰ ਰਿਹਾ ਹੈ।

ਗੂਗਲ ਫਰਜ਼ੀ ਖ਼ਬਰਾਂ ਨੂੰ ਕਿਵੇਂ ਰੋਕੇਗਾ?

ਚੋਣਾਂ ਵਿੱਚ ਫਰਜ਼ੀ ਖ਼ਬਰਾਂ ਦੇ ਪ੍ਰਸਾਰ ਨੂੰ ਰੋਕਣ ਲਈ ਗੂਗਲ ਇੱਕ ਨਵੇਂ ਗੱਠਜੋੜ ਵਿੱਚ ਸ਼ਾਮਲ ਹੋ ਗਿਆ ਹੈ। ਇਸ ਸਮੂਹ ਦਾ ਨਾਮ ਕੋਲੀਏਸ਼ਨ ਫਾਰ ਕੰਟੈਂਟ ਪ੍ਰੋਵੇਨੈਂਸ ਐਂਡ ਅਥੈਂਟੀਸਿਟੀ ਹੈ। ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਵੀ ਗੂਗਲ ਨੇ 'ਗੂਗਲ ਨਿਊਜ਼ ਇਨੀਸ਼ੀਏਟਿਵ ਟਰੇਨਿੰਗ ਨੈੱਟਵਰਕ' ਅਤੇ 'ਫੈਕਟ ਚੈੱਕ ਐਕਸਪਲੋਰਰ ਟੂਲ' ਵਰਗੀਆਂ ਚੀਜ਼ਾਂ ਸ਼ੁਰੂ ਕੀਤੀਆਂ ਸਨ, ਤਾਂ ਜੋ ਪੱਤਰਕਾਰ ਸੱਚੀਆਂ ਖਬਰਾਂ ਲੋਕਾਂ ਤੱਕ ਪਹੁੰਚਾ ਸਕਣ ਅਤੇ ਝੂਠੀਆਂ ਖਬਰਾਂ ਦਾ ਪਰਦਾਫਾਸ਼ ਕਰ ਸਕਣ। ਜਲਦੀ ਹੀ ਯੂਟਿਊਬ 'ਤੇ ਵੀਡੀਓ ਬਣਾਉਣ ਵਾਲੇ ਲੋਕਾਂ ਲਈ ਇਹ ਦੱਸਣਾ ਜ਼ਰੂਰੀ ਹੋਵੇਗਾ ਕਿ ਉਨ੍ਹਾਂ ਨੇ ਜੋ ਵੀਡੀਓ ਬਣਾਈ ਹੈ, ਉਹ ਅਸਲੀ ਹੈ ਜਾਂ ਨਹੀਂ। ਇਸ ਦੇ ਨਾਲ ਹੀ ਯੂਜ਼ਰਜ਼ ਨੂੰ ਇਹ ਵੀ ਪਤਾ ਲਗ ਸਕੇਗਾ ਕਿ ਇਹ ਅਸਲੀ ਨਹੀਂ ਹੈ ਕਿਉਂਕਿ ਯੂਟਿਊਬ ਖ਼ੁਦ ਹੀ ਵੀਡੀਓ ਉੱਤੇ ਲੇਬਲ ਲਗਾਏਗਾ।

 ਝੂਠੀਆਂ ਖਬਰਾਂ ਵਿਰੁੱਧ ਭਾਰਤ ਵਿੱਚ ਕੋਈ ਖਾਸ ਕਾਨੂੰਨ ਨਹੀ

ਅਜੇ ਤੱਕ, ਭਾਰਤ ਵਿੱਚ ਕੋਈ ਖਾਸ ਕਾਨੂੰਨ ਨਹੀਂ ਹੈ ਜੋ ਸਿਰਫ ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਅਤੇ ਡੀਪਫੇਕ ਤਕਨਾਲੋਜੀ ਨੂੰ ਧਿਆਨ ਵਿੱਚ ਰੱਖ ਕੇ ਬਣਾਇਆ ਗਿਆ ਹੋਵੇ ਅਤੇ ਜੋ ਅਜਿਹੇ ਫਰਜ਼ੀ ਵੀਡੀਓ ਬਣਾਉਣ ਵਾਲੇ ਵਿਅਕਤੀ ਨੂੰ ਸਿੱਧੇ ਤੌਰ 'ਤੇ ਸਜ਼ਾ ਦੇ ਸਕਦਾ ਹੋਵੇ। ਮੌਜੂਦਾ ਕਾਨੂੰਨ ਅਨੁਸਾਰ ਕਿਸੇ ਵਿਅਕਤੀ ਵਿਰੁੱਧ ਉਦੋਂ ਤੱਕ ਕੋਈ ਕਾਰਵਾਈ ਨਹੀਂ ਕੀਤੀ ਜਾ ਸਕਦੀ ਜਦੋਂ ਤੱਕ ਗਲਤ ਸੂਚਨਾ ਦੇਸ਼ ਦੀ ਸੁਰੱਖਿਆ, ਏਕਤਾ ਜਾਂ ਅਖੰਡਤਾ ਨੂੰ ਖਤਰਾ ਨਾ ਪਵੇ ਜਾਂ ਕਿਸੇ ਨੂੰ ਬਦਨਾਮ ਨਾ ਕਰੇ। ਜੇਕਰ ਕੋਈ ਵਿਅਕਤੀ ਕਿਸੇ ਨੇਤਾ ਦੀ ਜਾਅਲੀ ਆਵਾਜ਼ ਜਾਂ ਵੀਡੀਓ ਬਣਾ ਕੇ ਝੂਠੀ ਖ਼ਬਰ ਫੈਲਾਉਂਦਾ ਹੈ, ਤਾਂ ਉਸ ਨੂੰ ਪੁਰਾਣੇ ਭਾਰਤੀ ਕਾਨੂੰਨਾਂ ਦੇ ਤਹਿਤ ਸਜ਼ਾ ਦਿੱਤੀ ਜਾਵੇਗੀ।