Sparks of AGI: early experiments with GPT-4

Thu, 11 May 2023 06:19:17 +1000

Andrew Pam <xanni [at]>

Andrew Pam

"The new wave of AI systems, ChatGPT and its more powerful successors, exhibit
extraordinary capabilities across a broad swath of domains. In light of this,
we discuss whether artificial INTELLIGENCE has arrived.

Paper available here:
Video recorded at MIT on March 22nd, 2023"

Via Wayne Radinsky, who wrote:

"Sparks of artificial general intelligence (AGI): Early experiments with GPT-4.
So, I still haven’t finished reading the “Sparks of AGI” paper, but I
discovered this video of a talk by the leader of the team that did the
research, Sébastien Bubeck. So you can get a summary of the research from one
of the people that did it instead of me.

He talks about how they invented tests of basic knowledge of how the world
works that would be exceedingly unlikely to appear anywhere in the training
data, so it can’t just regurgitate something it read somewhere. What they came
up with is asking it how to stack a book, 9 eggs, a laptop, a bottle, and a
nail onto each other in a stable manner.

They invented “theory of mind” tests, like asking where John and Mark think the
cat is when they both saw John put the cat in a basket, but then John left the
room and went to school and Mark took the cat out of the basket and put it in a
box. GPT-4 not only says where John and Mark think the cat is, but, actually,
since the way the exact question was worded, to just ask what “they” think,
GPT-4 also says where the cat thinks it is.

Next he gets into definitions of intelligence that date back to the 1990s, and
see how well GPT-4 does at those definitions. This is the main focus of the
paper. These definitions are such things as the ability to reason, plan, solve
problems, think abstractly, comprehend complex ideas, learn quickly, and learn
from experience. GPT-4 succeeds at some of these but not others. For example,
GPT-4 doesn’t do planning. (This was before AutoGPT, for what it’s worth). And
GPT-4 doesn’t learn from experience, as when you interact with it, it relies on
its training data and its interactions with you are not part of that. (It does
have a buffer that acts as short-term memory that makes the back-and-forth chat
interaction coherent.)"

       *** Xanni ***
--               Andrew Pam                 Chief Scientist, Xanadu            Partner, Glass Wings               Manager, Serious Cybernetics

Comment via email

Home E-Mail Sponsors Index Search About Us