<html><head><meta http-equiv="content-type" content="text/html; charset=utf-8"></head><body dir="auto"><br><div dir="ltr"></div><div dir="ltr"><br><blockquote type="cite">On Jan 16, 2023, at 10:36 PM, Chris Muller <asqueaker@gmail.com> wrote:<br><br></blockquote></div><blockquote type="cite"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Back to ChatGPT - its Smalltalk knowledge is encoded in the contents of<br>
the matrices I mentioned during the training phase. Thanks to the novel<br>
architecture I mentioned, when you use it in the inference phase it can<br>
hold "session information" to allow its responses to be coherent with<br>
what you and it have said before. But it can't learn during the<br>
inference phase - the matrices are not changed by your chat.<br></blockquote><div><br></div><div>Yes!  I interrogated it deeply about that very "session" in a separate follow-up conversation (link below) the day after the first one.  For example, I asked it:</div><div><br></div><div>    "<span style="background-color:rgb(249,250,251);color:rgb(55,65,81);font-family:ui-sans-serif,system-ui,-apple-system,BlinkMacSystemFont,"Segoe UI",Roboto,"Helvetica Neue",Arial,"Noto Sans",sans-serif,"Apple Color Emoji","Segoe UI Emoji","Segoe UI Symbol","Noto Color Emoji";font-size:medium">Could the formation of the session state and its interaction with the language model cause the appearance of 'learning'?"</span></div><div><br></div><div>This conversation was much more interesting than the first one about Smalltalk.  Because of your fantastic explanation, I've decided to share it after all, here it is.<br></div><div><br></div><div><div>   <a href="https://sharegpt.com/c/Zh9Onhc" target="_blank">https://sharegpt.com/c/Zh9Onhc</a></div></div></div></div></div></blockquote><div><br></div><span style="caret-color: rgb(55, 65, 81); color: rgb(55, 65, 81); font-family: ui-sans-serif, system-ui, -apple-system, BlinkMacSystemFont, "Segoe UI", Roboto, "Helvetica Neue", Arial, "Noto Sans", sans-serif, "Apple Color Emoji", "Segoe UI Emoji", "Segoe UI Symbol", "Noto Color Emoji"; font-size: medium; white-space: pre-wrap; -webkit-text-size-adjust: 100%; background-color: rgb(243, 244, 246);">ChatGPT: </span><span style="caret-color: rgb(55, 65, 81); color: rgb(55, 65, 81); font-family: ui-sans-serif, system-ui, -apple-system, BlinkMacSystemFont, "Segoe UI", Roboto, "Helvetica Neue", Arial, "Noto Sans", sans-serif, "Apple Color Emoji", "Segoe UI Emoji", "Segoe UI Symbol", "Noto Color Emoji"; font-size: medium; white-space: pre-wrap; -webkit-text-size-adjust: 100%; background-color: rgb(243, 244, 246);">I do not have personal beliefs or emotions, so I do not have the ability to "know" something to be true or false. However, based on the training data I have been trained on, my responses are influenced by the information I have seen in the past.</span><div><br></div><div>Our ability to “know” is based neither in our beliefs nor our emotions. A weak theory of mind. It keeps on stating that it can make semantically meaningful responses, responses that are so consistent the appear to be a single predefined response, while many examples show it can certainly generate nonsense.  Have you tried to prove further its “notions” of meaningfulness, its ability to be meaningful, and its “notions” of its fallibility?</div><div><br><div dir="ltr"><span style="background-color: rgba(255, 255, 255, 0);">_,,,^..^,,,_ (phone)</span></div><blockquote type="cite"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><div><br></div></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Humans learn from very small training sets - you don't have to show a<br>
child thousands of pictures of cats before they understand what a cat<br>
is. Humans also don't have separate training and inference phases.<br>
Having an AI with these features is a simple matter of programming. We<br>
might see real progress in the next few years. But we are not there yet.</blockquote><div><br></div><div>Also confirmed by ChatGPT in its final two responses, above!   :)</div><div><br></div><div>Regards,</div><div>  Chris</div></div></div>
<span></span><br></div></blockquote></div></body></html>