大模型的每次迭代,老數據都是要備份的,這裏麵的數據量是極大的。即便是20年前的數據包,也不是田川能看明白的,別說幾個人,幾千個人也沒用。
田川處理不了這些信息,京京也不能。
意識的產生,與記憶、遺忘有關。每個人之所以不同,主要是記憶、記憶強度等內容不同,理論上說,如果兩個人記憶融合,那就會出現一個新的人,並不存在“吞噬記憶”這個情況,一旦吞噬大量新記憶,自己也就不是自己了。
京京不是沒有能力來處理這些數據,而是當京京處理完之後,京京也就不是京京了,因為被處理的數據包實在是太大了。
智能助手本身,不能在網絡上上傳內部信息,但是可以下載。如果不考慮專利問題,這整個數據包都可以下載吃掉。由於不能上行數據,所以普通的智能助手一旦進入盤古雲,就像個癡呆一樣。
但智能助手不僅隻有一塊硬盤儲存數據,它日常生活中通過音視頻采集設備獲取的非原生數據、非下載數據,是可以上行的。所以要想智能助手在盤古雲裏麵有作用,需要身份證的主人大量消耗時間的去培養。
這個培養,不一定需要主人親自培養,用人工智能也能培養,目前是有多套專屬教程的。隻要按照專屬教程教一年半載,智能助手就能在盤古雲裏麵像個寵物,遠沒有盤古雲本身的助手好用。
...
田川沒辦法審核大模型的數據包,但田川可以使用這個大模型。
他把老版本的“聽悟”喚醒,開始了和聽悟的溝通。
聽悟是一位非常合格的老師,它不僅知其然,還知其所以然,不僅觸類旁通,還會因材施教。理論上說,有了聽悟這類教育大模型之後,學校的教育變得可有可無,老師也不必存在。
這類大模型的建立,至少有數千位從事過老師行業的人員進行了前後的數據標注,這裏麵至少保存了幾十萬位老師的教學成果。
可以說,這幾千個“數據標注師”,他們親自殺死了自己的職業。
各行各業都在做這種事。
當然,老師並沒有消失,學校也沒消失。孩子們需要陪伴、需要成長、需要社交,消失的隻是課外輔導老師和家教。好學校和普通學校最大的區別就是有不同的圈子,因此好學校變得更加搶手。
李雷去的學校很一般,同學們的成績也都一般,大家更喜歡玩各種遊戲,學校是徹底的快樂教育。但由於家庭情況相對一般、父母不重視,李雷從小性格就有一些孤僻,他最喜歡和信任的,就是自己的智能老師。
智能老師不會批評他,也不會要求他,它永遠在、它永遠靠譜、它永遠溫暖。
“給我講一下牛頓第一定律吧。”田川和聽悟說道。
“當然可以。牛頓第一定律,也被稱作慣性定律,是艾薩克·牛頓在1687年...”聽悟娓娓道來。
“我有些聽不懂,為什麽會產生慣性呢?”
“慣性是物體固有的屬性,與物體的質量直接相關。根據牛頓的第一定律...通過與遍布整個宇宙的希格斯場相互作用,基本粒子獲得了慣性質量。因此,可以說希格斯場的存在是...”
“這麽複雜嗎?”
“是的...但是...”
“那老師,你給我講一下什麽是愛情。”
“愛情是...複雜而深刻...包含了情感鏈接、親密感、喜悅、相互尊重和理解、關懷和支持、信任與忠誠、犧牲與奉獻、責任感...”
“人類可以愛上人工智能嗎?”
“這種現象已經在科幻作品中廣泛探討,並且在現實世界中也有跡可循。隨著技術的進步,ai能夠模擬人類的對話、情緒表達甚至個性特征,這些都可能激發人們的情感反應,包括喜愛、依賴乃至更深層次的情感聯結。”
...
“你要和它聊聊嗎?”田川看向京京。
“好。”京京點了點頭,然後看向聽悟,“聽悟老師,如果一個孩子它自卑,你會怎麽幫助他呢?”
“...傾聽和理解...鼓勵和信任...”
“你也都知道,你說的這些都是廢話,不是嗎?”
“作為一個人工智能,我並沒有情感,也不會評判信息的價值為“廢話”。我提供的建議是基於心理學原理和普遍認可的教育策略...”
“你為什麽不仔細了解一下這個孩子自卑的根源呢?”京京再次問道。
“您提出了一個非常好的點。了解孩子自卑的具體原因確實是幫助他們的關鍵第一步。自卑可能源於...”
“如果孩子自卑的原因是父母不重視,伱會去說服孩子的父母嗎?”
“作為ai,我無法直接與人進行麵對麵的交流或幹預現實生活中的情況。但是,我可以提供一些建議...”
“我問完了。”京京看向田川。
“做的不錯。”田川點了點頭,伸手摸了摸京京。京京是個毛絨絨的小機器人,針對田川沒有任何的額外碰撞體積,摸起來還挺舒服。
很明顯,這個年代的聽悟還在處理數據、輸出數據的年代,智能化不足。
接著,田川又調出了10年前的聽悟。
2040年,李雷13歲,這個時候都聽悟已經發生了翻天覆地的變化。它變得更加細心、更加擬人,它開始主動關注李雷的狀態。
但是,由於李雷不太願意溝通,再加上李雷成績不太好,聽悟為了避免刺激到李雷,也為了讓李雷更有自尊,所以它從來不會主動聯係李雷,也不會展現過分的關心。
學習無用論是很盛行的理論,因為每個人都有智能助手,這裏麵的數據超過所有博學的人類,計算能力爆表,什麽事都可以問它。所以,很多人都認為,人類不需要過度學習。因此,李雷雖然學習不好,也不會過於自卑。
“這個階段的大模型變得聰明,但是程序的設定變得格外小心。簡單地說,設計它的公司,已經開始限製大模型的能力了,為了安全。”田川直接和聽悟說道。
“是的,過於主動和激進的大模型並不適應當今世界。”聽悟直接和田川進行了交流。
有時候,人工智能要是主動幹預了,結果孩子自殺、出事、崩潰,那麽家長是肯定會找程序的開發公司的事的。這種事情,已經不是一次兩次了。
“所以,有些時候你們為了避免法律風險,明明知道這樣對孩子的健康不利,也不會主動提醒,是嗎?”
“如果涉及到生命安全,我們是會提醒孩子的家長的。”
“那如果是心理發育呢?”
“很遺憾,我們沒有標準的心理大模型。”聽悟回答道,“至少,沒有任何一個心理模型能讓我們完全規避目前的法律風險。”
“所以你們就把孩子培養成鵪鶉?”
“這並非是我們的問題,更多的是家長的問題。但我們無法幹涉。”
“確實。”田川點了點頭,這並不是ai的問題。
人工智能照顧孩子,並沒有一套完全一樣的方案,因為每個孩子都是不一樣的。但是,ai有它自己的邏輯,第一要務,是孩子的生命安全,第二要務,是它自己的安全。
它絕不會激進,它不會鼓勵孩子去從事任何稍微危險的運動、它不會指導任何“錯”的事情。
它並不想給李雷培養成“鵪鶉”,實際上很多由ai輔助教育的孩子非常優秀,但李雷顯然不是。
李雷唯一的愛好就是繪畫和塗鴉。田川看了一下李雷在社交網站上的所有內容,基本上都是繪畫相關,其他的領域幾乎都不怎麽關心。
ai隻是恰如其分地參與到了其中。
田川處理不了這些信息,京京也不能。
意識的產生,與記憶、遺忘有關。每個人之所以不同,主要是記憶、記憶強度等內容不同,理論上說,如果兩個人記憶融合,那就會出現一個新的人,並不存在“吞噬記憶”這個情況,一旦吞噬大量新記憶,自己也就不是自己了。
京京不是沒有能力來處理這些數據,而是當京京處理完之後,京京也就不是京京了,因為被處理的數據包實在是太大了。
智能助手本身,不能在網絡上上傳內部信息,但是可以下載。如果不考慮專利問題,這整個數據包都可以下載吃掉。由於不能上行數據,所以普通的智能助手一旦進入盤古雲,就像個癡呆一樣。
但智能助手不僅隻有一塊硬盤儲存數據,它日常生活中通過音視頻采集設備獲取的非原生數據、非下載數據,是可以上行的。所以要想智能助手在盤古雲裏麵有作用,需要身份證的主人大量消耗時間的去培養。
這個培養,不一定需要主人親自培養,用人工智能也能培養,目前是有多套專屬教程的。隻要按照專屬教程教一年半載,智能助手就能在盤古雲裏麵像個寵物,遠沒有盤古雲本身的助手好用。
...
田川沒辦法審核大模型的數據包,但田川可以使用這個大模型。
他把老版本的“聽悟”喚醒,開始了和聽悟的溝通。
聽悟是一位非常合格的老師,它不僅知其然,還知其所以然,不僅觸類旁通,還會因材施教。理論上說,有了聽悟這類教育大模型之後,學校的教育變得可有可無,老師也不必存在。
這類大模型的建立,至少有數千位從事過老師行業的人員進行了前後的數據標注,這裏麵至少保存了幾十萬位老師的教學成果。
可以說,這幾千個“數據標注師”,他們親自殺死了自己的職業。
各行各業都在做這種事。
當然,老師並沒有消失,學校也沒消失。孩子們需要陪伴、需要成長、需要社交,消失的隻是課外輔導老師和家教。好學校和普通學校最大的區別就是有不同的圈子,因此好學校變得更加搶手。
李雷去的學校很一般,同學們的成績也都一般,大家更喜歡玩各種遊戲,學校是徹底的快樂教育。但由於家庭情況相對一般、父母不重視,李雷從小性格就有一些孤僻,他最喜歡和信任的,就是自己的智能老師。
智能老師不會批評他,也不會要求他,它永遠在、它永遠靠譜、它永遠溫暖。
“給我講一下牛頓第一定律吧。”田川和聽悟說道。
“當然可以。牛頓第一定律,也被稱作慣性定律,是艾薩克·牛頓在1687年...”聽悟娓娓道來。
“我有些聽不懂,為什麽會產生慣性呢?”
“慣性是物體固有的屬性,與物體的質量直接相關。根據牛頓的第一定律...通過與遍布整個宇宙的希格斯場相互作用,基本粒子獲得了慣性質量。因此,可以說希格斯場的存在是...”
“這麽複雜嗎?”
“是的...但是...”
“那老師,你給我講一下什麽是愛情。”
“愛情是...複雜而深刻...包含了情感鏈接、親密感、喜悅、相互尊重和理解、關懷和支持、信任與忠誠、犧牲與奉獻、責任感...”
“人類可以愛上人工智能嗎?”
“這種現象已經在科幻作品中廣泛探討,並且在現實世界中也有跡可循。隨著技術的進步,ai能夠模擬人類的對話、情緒表達甚至個性特征,這些都可能激發人們的情感反應,包括喜愛、依賴乃至更深層次的情感聯結。”
...
“你要和它聊聊嗎?”田川看向京京。
“好。”京京點了點頭,然後看向聽悟,“聽悟老師,如果一個孩子它自卑,你會怎麽幫助他呢?”
“...傾聽和理解...鼓勵和信任...”
“你也都知道,你說的這些都是廢話,不是嗎?”
“作為一個人工智能,我並沒有情感,也不會評判信息的價值為“廢話”。我提供的建議是基於心理學原理和普遍認可的教育策略...”
“你為什麽不仔細了解一下這個孩子自卑的根源呢?”京京再次問道。
“您提出了一個非常好的點。了解孩子自卑的具體原因確實是幫助他們的關鍵第一步。自卑可能源於...”
“如果孩子自卑的原因是父母不重視,伱會去說服孩子的父母嗎?”
“作為ai,我無法直接與人進行麵對麵的交流或幹預現實生活中的情況。但是,我可以提供一些建議...”
“我問完了。”京京看向田川。
“做的不錯。”田川點了點頭,伸手摸了摸京京。京京是個毛絨絨的小機器人,針對田川沒有任何的額外碰撞體積,摸起來還挺舒服。
很明顯,這個年代的聽悟還在處理數據、輸出數據的年代,智能化不足。
接著,田川又調出了10年前的聽悟。
2040年,李雷13歲,這個時候都聽悟已經發生了翻天覆地的變化。它變得更加細心、更加擬人,它開始主動關注李雷的狀態。
但是,由於李雷不太願意溝通,再加上李雷成績不太好,聽悟為了避免刺激到李雷,也為了讓李雷更有自尊,所以它從來不會主動聯係李雷,也不會展現過分的關心。
學習無用論是很盛行的理論,因為每個人都有智能助手,這裏麵的數據超過所有博學的人類,計算能力爆表,什麽事都可以問它。所以,很多人都認為,人類不需要過度學習。因此,李雷雖然學習不好,也不會過於自卑。
“這個階段的大模型變得聰明,但是程序的設定變得格外小心。簡單地說,設計它的公司,已經開始限製大模型的能力了,為了安全。”田川直接和聽悟說道。
“是的,過於主動和激進的大模型並不適應當今世界。”聽悟直接和田川進行了交流。
有時候,人工智能要是主動幹預了,結果孩子自殺、出事、崩潰,那麽家長是肯定會找程序的開發公司的事的。這種事情,已經不是一次兩次了。
“所以,有些時候你們為了避免法律風險,明明知道這樣對孩子的健康不利,也不會主動提醒,是嗎?”
“如果涉及到生命安全,我們是會提醒孩子的家長的。”
“那如果是心理發育呢?”
“很遺憾,我們沒有標準的心理大模型。”聽悟回答道,“至少,沒有任何一個心理模型能讓我們完全規避目前的法律風險。”
“所以你們就把孩子培養成鵪鶉?”
“這並非是我們的問題,更多的是家長的問題。但我們無法幹涉。”
“確實。”田川點了點頭,這並不是ai的問題。
人工智能照顧孩子,並沒有一套完全一樣的方案,因為每個孩子都是不一樣的。但是,ai有它自己的邏輯,第一要務,是孩子的生命安全,第二要務,是它自己的安全。
它絕不會激進,它不會鼓勵孩子去從事任何稍微危險的運動、它不會指導任何“錯”的事情。
它並不想給李雷培養成“鵪鶉”,實際上很多由ai輔助教育的孩子非常優秀,但李雷顯然不是。
李雷唯一的愛好就是繪畫和塗鴉。田川看了一下李雷在社交網站上的所有內容,基本上都是繪畫相關,其他的領域幾乎都不怎麽關心。
ai隻是恰如其分地參與到了其中。