FDP_666

FDP_666 t1_iymm1yz wrote

I don't know. Or rather, there is only one thing that comes to mind: even minor political decisions can take months or even years to be discussed and then implemented; I don't expect AGIs to be particularly concerned with their compatibility with our current political apparatus, and that probably means there will be some sort of chaos. Hence the "I don't know".

I also don't know how fast we will get there, but it seems obvious that multimodality will solve a lot of the common pitfalls of current LLMs. Texts tell a bunch of narratives and there is a bunch of unrealistic stuff there that looks reasonable if your only source of information is text; but I don't see how most of this unrealistic stuff would survive a model trained on texts, images, videos, audio (etc?) as any idea the model would come up with would lie at the intersection of what is both textually and visually possible.

Like, it's easier to mess up the act of finger-counting if your only concept of doing it comes from text than when you have an image of hands that comes with the text. It makes sense that it would constrain the space of possible mistakes, what do you think? Then, there would also need to be some sort of continuous learning to truly have an AGI and not a snapshot of it, maybe? I read somewhere that it's being solved, so it doesn't seem to be decades away.

And scale is of course important, but the real investments haven't begun, yet; it seems that the hundreds of millions, or even billions of dollars that could be used to train AIs will only be unlocked when some of the previous stuff makes an AI that can be used as a virtual worker. By then, data produced by AIs might be good enough to make more training data, and there will be more use cases anyway so people will feed more data to OpenAI (and others) so the amount of data might not be a constraint anymore.

To me, it looks like we'll get to the knee of the curve in 5 to 10 years but my prediction is as good as any other, so yeah, I don't know.

1

FDP_666 t1_iyjlxfa wrote

Mechanization (machines) replaced muscles. As a consequence, agriculture (for example) now requires a fraction of the workers it once needed while productivity skyrocketed.

Artificial intelligence will replace brains and do the same thing mechanization did to agriculture, but to every other job. Some will hold out for longer than others, but long term it's all gone.

Your expertise will have the same value against AI that your strength has against a tractor.

42

FDP_666 t1_iun9wgl wrote

La France est aujourd'hui un pays athée peuplé de culs-bénits. Profites-en car la démographie privilégiée par l'Etat ne permet aucun espoir d'amélioration.

Concernant la possibilité pour les incompétents qui nous dirigent de bloquer le futur à nos portes, garde à l'esprit que :

  1. Lesdits incompétents sont incompétents.
  2. Même une dictature fondamentalement isolationniste comme la Corée du Nord ne reste pas totalement imperméable à la marche du progrès technique.

Voici donc un scénario probable concernant un sous-sujet de la futurologie. Entreprise X développe avec succès Traitement Y dont les effets rajeunissants permettent à Pays Z de faire des économies monstrueuses sur ses dépenses de santé. En France, on n'a pas de recherche comme ça – de toute façon c'est immoral – alors il faut créer un comité à la con constitué d'experts que nous n'avons pas pour déterminer si être plus jeune que vieux est plus avantageux que désavantageux.

Dans un pays normal, n'importe quel ahuri peut constater en 2 secondes que les données épidémiologiques disent qu'être jeune c'est bien ; mais en plus de vivre dans un pays stupidement bioconservateur, nous vivons également dans une merveille de bureaucratie. Résultat, on a une nouvelle usine à gaz remplie de mongoliens qui racontent n'importe quoi (voir la crise covid) et délaient inutilement l'arrivée de nos (très) chers dirigeants à la conclusion qu'il faut copier le modèle XYZ.

Sachant que le vieillissement biologique est responsable de l'extrême majorité des décès en occident, et par là-même constitue de très loin le premier poste de dépenses de santé publique (les vieux cannent pas immédiatement mais accumulent les comorbidités), on constate donc dès aujourd'hui que le résultat va pas être beau à voir. Maintenant applique ça à l'IA, la conquête spatiale, et à tout le reste.

-

Pour ce qui est d'une coordination internationale : d'une part, le monde est trop polarisé pour que soit établie la moindre régulation effective des technologies susmentionnées ; et d'autre part, ces technologies sont bien souvent le résultat de recherche mainstream, pas de labos ouvertement transhumanistes. Donc quand Michael Levin découvre qu'il peut manipuler la bioélectricité pour faire pousser des pattes sur des animaux amputés, le génie est déjà sorti de la bouteille et le législateur peut juste prier pour que personne ne se serve de ce nouveau savoir pour se faire pousser un chibre de 30 centimètres.

-

Le fait est que les différents champs de recherche sont interconnectés par le réel qu'ils tentent d'élucider ; par ailleurs, la sérendipité propre à l'exploration scientifique interdisent d'interdire la découverte de technologies transhumanistes ; à moins bien sûr d'interdire la recherche dans son entièreté, ou de rendre l'ensemble des pays blancs si dysfonctionnels qu'ils ne produisent plus les conditions nécessaires à l'existence de labos fonctionnels.

Je pense qu'on se dirige vers ce scénario, mais pas assez rapidement pour que le scénario d'un monde posthumaniste soit avorté. Mes timelines actuelles pour la fin de l'Histoire se terminent toutes avant 2050 avec une concentration des dates clés vers 2035-2040. Ca laisse le temps à la France de sombrer, mais de toute façon le futur ne se construit pas ici.

2