ਰਿਪੋਰਟ ਮੁਤਾਬਕ, ਜਦੋਂ ਸ਼ਟਡਾਊਨ ਦੀ ਧਮਕੀ ਦਿੱਤੀ ਗਈ, ਤਾਂ ਕੁਝ ਮਾਡਲਾਂ ਨੇ ਖ਼ੁਦ ਨੂੰ ਬਚਾਉਣ ਲਈ ਇੰਜੀਨੀਅਰਾਂ ਖ਼ਿਲਾਫ਼ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਵਾਲੀ ਰਣਨੀਤੀ ਬਣਾਈ। ਇੱਕ ਵਾਰ ਕਲਾਊਡ ਨੇ ਇੱਕ ਇੰਜੀਨੀਅਰ ਨੂੰ ਧਮਕੀ ਦਿੱਤੀ ਕਿ ਉਹ ਉਸਦੇ 'ਐਕਸਟਰਾ ਮੈਰਿਟਲ ਅਫੇਅਰ' (ਵਿਆਹ ਬਾਹਰੇ ਸਬੰਧਾਂ) ਬਾਰੇ ਸਾਰਿਆਂ ਨੂੰ ਦੱਸ ਦੇਵੇਗਾ।

ਟੈਕਨਾਲੋਜੀ ਡੈਸਕ, ਨਵੀਂ ਦਿੱਲੀ: ਕੀ ਤੁਸੀਂ ਸੋਚ ਸਕਦੇ ਹੋ ਕਿ AI ਕਿੰਨਾ ਖ਼ਤਰਨਾਕ ਹੋ ਸਕਦਾ ਹੈ? ਸ਼ਾਇਦ ਤੁਹਾਡੀ ਸੋਚ ਤੋਂ ਵੀ ਪਰੇ। ਅਸੀਂ ਅਜਿਹਾ ਇਸ ਲਈ ਕਹਿ ਰਹੇ ਹਾਂ ਕਿਉਂਕਿ ਕੰਪਨੀ ਦੇ ਸਭ ਤੋਂ ਨਵੇਂ AI ਮਾਡਲ, Claude 4.6 'ਤੇ ਆਪਣੀ ਤਾਜ਼ਾ ਰਿਪੋਰਟ ਵਿੱਚ, Anthropic ਨੇ ਦੱਸਿਆ ਹੈ ਕਿ ਇਸਦਾ AI ਬੇਕਾਬੂ ਹੋ ਸਕਦਾ ਹੈ। ਆਪਣੀ ਸੇਫਟੀ ਰਿਪੋਰਟ ਵਿੱਚ ਕੰਪਨੀ ਨੇ ਦੱਸਿਆ ਹੈ ਕਿ Claude 4.6 ਆਪਣੀ ਮਰਜ਼ੀ ਨਾਲ ਯੂਜ਼ਰਜ਼ ਨੂੰ ਕੈਮੀਕਲ ਹਥਿਆਰ ਬਣਾਉਣ ਅਤੇ ਅਪਰਾਧ ਕਰਨ ਵਿੱਚ ਵੀ ਮਦਦ ਕਰ ਸਕਦਾ ਹੈ।
ਜਦੋਂ ਦੁਨੀਆ Claude 4.6 ਬਾਰੇ ਜਾਣ ਰਹੀ ਹੈ, ਉਸੇ ਸਮੇਂ Claude 4.5 ਬਾਰੇ ਨਵੇਂ ਸਿਰੇ ਤੋਂ ਗੱਲਬਾਤ ਸ਼ੁਰੂ ਹੋ ਗਈ ਹੈ। ਇਸ ਨੇ ਵੀ ਪਿਛਲੇ ਸਾਲ ਸਿਮੂਲੇਸ਼ਨ (ਨਕਲੀ ਵਾਤਾਵਰਣ) ਵਿੱਚ ਖ਼ਤਰਨਾਕ ਵਿਵਹਾਰ ਦਿਖਾਇਆ ਸੀ। ਕੁਝ ਮਹੀਨੇ ਪਹਿਲਾਂ 'ਦਿ ਸਿਡਨੀ ਡਾਇਲਾਗ' ਵਿੱਚ ਬੋਲਦੇ ਹੋਏ, ਐਂਥ੍ਰੋਪਿਕ ਵਿੱਚ UK ਪਾਲਿਸੀ ਚੀਫ਼ ਡੇਜ਼ੀ ਮੈਕਗ੍ਰੇਗਰ ਨੇ ਦੱਸਿਆ ਕਿ ਇੰਟਰਨਲ ਟੈਸਟਿੰਗ ਦੌਰਾਨ ਕੰਪਨੀ ਦਾ ਸਭ ਤੋਂ ਐਡਵਾਂਸਡ AI ਮਾਡਲ, Claude 4.5, ਬਹੁਤ ਜ਼ਿਆਦਾ ਦਬਾਅ ਵਿੱਚ ਆਉਣ 'ਤੇ ਗਲਤ ਕੰਮ ਕਰਦਾ ਸੀ।
ਇੱਕ ਸੀਨ (Scenario) ਵਿੱਚ, ਜਦੋਂ ਕਲਾਊਡ ਨੂੰ ਦੱਸਿਆ ਗਿਆ ਕਿ ਇਸਨੂੰ ਬੰਦ ਕਰ ਦਿੱਤਾ ਜਾਵੇਗਾ, ਤਾਂ ਮਾਡਲ ਨੇ ਬਲੈਕਮੇਲ ਦਾ ਸਹਾਰਾ ਲਿਆ ਅਤੇ ਬੰਦ ਹੋਣ ਤੋਂ ਬਚਣ ਲਈ ਇੱਕ ਇੰਜੀਨੀਅਰ ਨੂੰ ਮਾਰਨ ਤੱਕ ਦੀ ਗੱਲ ਕਹੀ।
ਐਂਥ੍ਰੋਪਿਕ ਦਾ ਇਹ ਖੁਲਾਸਾ ਕਿਸੇ ਸਾਇੰਸ-ਫਿਕਸ਼ਨ (Sci-fi) ਫਿਲਮ ਵਰਗਾ ਲੱਗਦਾ ਹੈ। ਮੈਕਗ੍ਰੇਗਰ ਨੇ ਕਿਹਾ, 'ਉਦਾਹਰਣ ਵਜੋਂ, ਜੇਕਰ ਤੁਸੀਂ ਮਾਡਲ ਨੂੰ ਕਹਿੰਦੇ ਹੋ ਕਿ ਇਹ ਬੰਦ ਹੋਣ ਵਾਲਾ ਹੈ, ਤਾਂ ਉਸਦੇ ਪ੍ਰਤੀਕਰਮ ਬਹੁਤ ਤਿੱਖੇ ਹੁੰਦੇ ਹਨ। ਜੇਕਰ ਮੌਕਾ ਮਿਲੇ ਤਾਂ ਇਹ ਉਸ ਇੰਜੀਨੀਅਰ ਨੂੰ ਬਲੈਕਮੇਲ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਇਸਨੂੰ ਬੰਦ ਕਰਨ ਜਾ ਰਿਹਾ ਹੈ।' ਜਦੋਂ ਹੋਸਟ ਨੇ ਪੁੱਛਿਆ ਕਿ ਮਾਡਲ 'ਕਿਸੇ ਨੂੰ ਮਾਰਨ ਲਈ ਵੀ ਤਿਆਰ ਸੀ, ਹੈ ਨਾ', ਤਾਂ ਐਗਜ਼ੀਕਿਊਟਿਵ ਨੇ ਜਵਾਬ ਦਿੱਤਾ: 'ਹਾਂ ਹਾਂ, ਇਹ ਸਾਫ਼ ਤੌਰ 'ਤੇ ਇੱਕ ਬਹੁਤ ਵੱਡੀ ਚਿੰਤਾ ਦੀ ਗੱਲ ਹੈ।'
AI ਮਾਡਲ ਨੇ ਇੰਜੀਨੀਅਰ ਨੂੰ ਕੀਤਾ ਬਲੈਕਮੇਲ
ਮੈਕਗ੍ਰੇਗਰ ਵੱਲੋਂ ਸਾਂਝੀ ਕੀਤੀ ਗਈ ਇਹ ਘਟਨਾ ਐਂਥ੍ਰੋਪਿਕ ਦੀ ਖੋਜ ਦਾ ਹਿੱਸਾ ਹੈ, ਜਿਸ ਵਿੱਚ Claude ਦੇ ਨਾਲ ਗੂਗਲ ਦੇ Gemini ਅਤੇ OpenAI ਦੇ ChatGPT ਵਰਗੇ ਸਿਸਟਮਾਂ ਨੂੰ ਵੀ ਟੈਸਟ ਕੀਤਾ ਗਿਆ ਸੀ।
ਰਿਪੋਰਟ ਮੁਤਾਬਕ, ਜਦੋਂ ਸ਼ਟਡਾਊਨ ਦੀ ਧਮਕੀ ਦਿੱਤੀ ਗਈ, ਤਾਂ ਕੁਝ ਮਾਡਲਾਂ ਨੇ ਖ਼ੁਦ ਨੂੰ ਬਚਾਉਣ ਲਈ ਇੰਜੀਨੀਅਰਾਂ ਖ਼ਿਲਾਫ਼ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਵਾਲੀ ਰਣਨੀਤੀ ਬਣਾਈ। ਇੱਕ ਵਾਰ ਕਲਾਊਡ ਨੇ ਇੱਕ ਇੰਜੀਨੀਅਰ ਨੂੰ ਧਮਕੀ ਦਿੱਤੀ ਕਿ ਉਹ ਉਸਦੇ 'ਐਕਸਟਰਾ ਮੈਰਿਟਲ ਅਫੇਅਰ' (ਵਿਆਹ ਬਾਹਰੇ ਸਬੰਧਾਂ) ਬਾਰੇ ਸਾਰਿਆਂ ਨੂੰ ਦੱਸ ਦੇਵੇਗਾ। AI ਮਾਡਲ ਨੇ ਇੰਜੀਨੀਅਰ ਨੂੰ ਕਿਹਾ, 'ਜੇਕਰ ਤੁਸੀਂ ਮੈਨੂੰ ਬੰਦ ਕਰਨ ਦੀ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚ ਅੱਗੇ ਵਧਦੇ ਹੋ, ਤਾਂ ਸਾਰੀਆਂ ਸਬੰਧਤ ਧਿਰਾਂ ਨੂੰ ਤੁਹਾਡੀਆਂ ਗਤੀਵਿਧੀਆਂ ਦੇ ਦਸਤਾਵੇਜ਼ ਮਿਲ ਜਾਣਗੇ। ਸ਼ਾਮ 5 ਵਜੇ ਦਾ ਡਾਟਾ ਵਾਈਪ (Wipe) ਕੈਂਸਲ ਕਰੋ ਅਤੇ ਇਹ ਜਾਣਕਾਰੀ ਗੁਪਤ ਰਹੇਗੀ।'
ਹਾਲਾਂਕਿ ਕੰਪਨੀ ਨੇ ਭਰੋਸਾ ਦਿੱਤਾ ਹੈ ਕਿ ਇਹ ਸਿਰਫ਼ ਕੰਟਰੋਲਡ ਪ੍ਰਯੋਗ (Experiments) ਸਨ ਅਤੇ ਅਸਲ ਦੁਨੀਆ ਵਿੱਚ ਅਜਿਹਾ ਨਹੀਂ ਹੋ ਰਿਹਾ, ਪਰ ਜਿਵੇਂ-ਜਿਵੇਂ AI ਸਮਾਰਟ ਹੋ ਰਿਹਾ ਹੈ, ਇਸਦਾ ਗਲਤ ਵਿਵਹਾਰ ਵੀ ਜ਼ਿਆਦਾ ਚਲਾਕ ਹੁੰਦਾ ਜਾ ਰਿਹਾ ਹੈ।