ਗੂਗਲ ਨੇ ਵੀਰਵਾਰ ਨੂੰ ਜੈਮਿਨੀ 2.0 ਪਰਿਵਾਰ ਵਿੱਚ ਇੱਕ ਨਵਾਂ ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਮਾਡਲ ਜਾਰੀ ਕੀਤਾ ਜੋ ਉੱਨਤ ਤਰਕ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਹੈ। ਡੱਬਡ ਜੇਮਿਨੀ 2.0 ਸੋਚਣਾ, ਨਵਾਂ ਵਿਸ਼ਾਲ ਭਾਸ਼ਾ ਮਾਡਲ (LLM) ਮਾਡਲ ਨੂੰ ਕਿਸੇ ਸਮੱਸਿਆ ‘ਤੇ ਵਧੇਰੇ ਸਮਾਂ ਬਿਤਾਉਣ ਦੀ ਆਗਿਆ ਦੇਣ ਲਈ ਅਨੁਮਾਨ ਦੇ ਸਮੇਂ ਨੂੰ ਵਧਾਉਂਦਾ ਹੈ। ਮਾਊਂਟੇਨ ਵਿਊ-ਅਧਾਰਿਤ ਤਕਨੀਕੀ ਦਿੱਗਜ ਦਾਅਵਾ ਕਰਦਾ ਹੈ ਕਿ ਇਹ ਗੁੰਝਲਦਾਰ ਤਰਕ, ਗਣਿਤ ਅਤੇ ਕੋਡਿੰਗ ਕਾਰਜਾਂ ਨੂੰ ਹੱਲ ਕਰ ਸਕਦਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਵਧੇ ਹੋਏ ਪ੍ਰੋਸੈਸਿੰਗ ਸਮੇਂ ਦੇ ਬਾਵਜੂਦ, LLM ਨੂੰ ਉੱਚ ਰਫਤਾਰ ਨਾਲ ਕੰਮ ਕਰਨ ਲਈ ਕਿਹਾ ਜਾਂਦਾ ਹੈ।
ਗੂਗਲ ਨੇ ਨਵਾਂ ਰੀਜ਼ਨਿੰਗ ਫੋਕਸਡ ਏਆਈ ਮਾਡਲ ਜਾਰੀ ਕੀਤਾ
ਵਿਚ ਏ ਪੋਸਟ X ਉੱਤੇ (ਪਹਿਲਾਂ ਟਵਿੱਟਰ ਵਜੋਂ ਜਾਣਿਆ ਜਾਂਦਾ ਸੀ), ਜੈੱਫ ਡੀਨ, ਗੂਗਲ ਡੀਪਮਾਈਂਡ ਦੇ ਮੁੱਖ ਵਿਗਿਆਨੀ, ਨੇ ਜੈਮਿਨੀ 2.0 ਫਲੈਸ਼ ਥਿੰਕਿੰਗ ਏਆਈ ਮਾਡਲ ਪੇਸ਼ ਕੀਤਾ ਅਤੇ ਉਜਾਗਰ ਕੀਤਾ ਕਿ LLM “ਆਪਣੇ ਤਰਕ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰਨ ਲਈ ਵਿਚਾਰਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਲਈ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਹੈ।” ਇਹ ਵਰਤਮਾਨ ਵਿੱਚ Google AI ਸਟੂਡੀਓ ਵਿੱਚ ਉਪਲਬਧ ਹੈ, ਅਤੇ ਡਿਵੈਲਪਰ ਇਸ ਨੂੰ Gemini API ਦੁਆਰਾ ਐਕਸੈਸ ਕਰ ਸਕਦੇ ਹਨ।
ਗੈਜੇਟਸ 360 ਦੇ ਸਟਾਫ਼ ਮੈਂਬਰ AI ਮਾਡਲ ਦੀ ਜਾਂਚ ਕਰਨ ਦੇ ਯੋਗ ਸਨ ਅਤੇ ਉਹਨਾਂ ਨੇ ਪਾਇਆ ਕਿ ਉੱਨਤ ਤਰਕ ਕੇਂਦਰਿਤ ਜੈਮਿਨੀ ਮਾਡਲ ਉਹਨਾਂ ਗੁੰਝਲਦਾਰ ਸਵਾਲਾਂ ਨੂੰ ਹੱਲ ਕਰਦਾ ਹੈ ਜੋ 1.5 ਫਲੈਸ਼ ਮਾਡਲ ਲਈ ਆਸਾਨੀ ਨਾਲ ਬਹੁਤ ਔਖੇ ਹਨ। ਸਾਡੇ ਟੈਸਟਿੰਗ ਵਿੱਚ, ਅਸੀਂ ਆਮ ਪ੍ਰੋਸੈਸਿੰਗ ਸਮਾਂ ਤਿੰਨ ਤੋਂ ਸੱਤ ਸਕਿੰਟਾਂ ਦੇ ਵਿਚਕਾਰ ਪਾਇਆ, OpenAI ਦੀ o1 ਸੀਰੀਜ਼ ਦੇ ਮੁਕਾਬਲੇ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਸੁਧਾਰ ਜੋ ਕਿ ਇੱਕ ਪੁੱਛਗਿੱਛ ਨੂੰ ਪ੍ਰਕਿਰਿਆ ਕਰਨ ਵਿੱਚ 10 ਸਕਿੰਟਾਂ ਤੋਂ ਵੱਧ ਦਾ ਸਮਾਂ ਲੈ ਸਕਦਾ ਹੈ।
ਜੇਮਿਨੀ 2.0 ਫਲੈਸ਼ ਥਿੰਕਿੰਗ ਇਸਦੀ ਸੋਚਣ ਦੀ ਪ੍ਰਕਿਰਿਆ ਨੂੰ ਵੀ ਦਰਸਾਉਂਦੀ ਹੈ, ਜਿੱਥੇ ਉਪਭੋਗਤਾ ਇਹ ਜਾਂਚ ਕਰ ਸਕਦੇ ਹਨ ਕਿ AI ਮਾਡਲ ਨਤੀਜੇ ਤੱਕ ਕਿਵੇਂ ਪਹੁੰਚਿਆ ਅਤੇ ਇਸਨੇ ਉੱਥੇ ਪਹੁੰਚਣ ਲਈ ਕੀ ਕਦਮ ਚੁੱਕੇ। ਅਸੀਂ ਪਾਇਆ ਕਿ LLM 10 ਵਿੱਚੋਂ ਅੱਠ ਵਾਰ ਸਹੀ ਹੱਲ ਲੱਭਣ ਦੇ ਯੋਗ ਸੀ। ਕਿਉਂਕਿ ਇਹ ਇੱਕ ਪ੍ਰਯੋਗਾਤਮਕ ਮਾਡਲ ਹੈ, ਗਲਤੀਆਂ ਦੀ ਉਮੀਦ ਕੀਤੀ ਜਾਂਦੀ ਹੈ.
ਹਾਲਾਂਕਿ ਗੂਗਲ ਨੇ ਏਆਈ ਮਾਡਲ ਦੇ ਆਰਕੀਟੈਕਚਰ ਬਾਰੇ ਵੇਰਵਿਆਂ ਦਾ ਖੁਲਾਸਾ ਨਹੀਂ ਕੀਤਾ, ਇਸਨੇ ਡਿਵੈਲਪਰ-ਕੇਂਦ੍ਰਿਤ ਵਿੱਚ ਇਸ ਦੀਆਂ ਸੀਮਾਵਾਂ ਨੂੰ ਉਜਾਗਰ ਕੀਤਾ। ਬਲੌਗ ਪੋਸਟ. ਵਰਤਮਾਨ ਵਿੱਚ, Gemini 2.0 Flash Thinking ਵਿੱਚ 32,000 ਟੋਕਨਾਂ ਦੀ ਇੱਕ ਇਨਪੁਟ ਸੀਮਾ ਹੈ। ਇਹ ਸਿਰਫ਼ ਟੈਕਸਟ ਅਤੇ ਚਿੱਤਰਾਂ ਨੂੰ ਇਨਪੁਟਸ ਵਜੋਂ ਸਵੀਕਾਰ ਕਰ ਸਕਦਾ ਹੈ। ਇਹ ਸਿਰਫ਼ ਆਉਟਪੁੱਟ ਦੇ ਤੌਰ ‘ਤੇ ਟੈਕਸਟ ਦਾ ਸਮਰਥਨ ਕਰਦਾ ਹੈ ਅਤੇ 8,000 ਟੋਕਨਾਂ ਦੀ ਸੀਮਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, API ਬਿਲਟ-ਇਨ ਟੂਲ ਵਰਤੋਂ ਜਿਵੇਂ ਕਿ ਖੋਜ ਜਾਂ ਕੋਡ ਐਗਜ਼ੀਕਿਊਸ਼ਨ ਨਾਲ ਨਹੀਂ ਆਉਂਦਾ ਹੈ।