Carrément ! J’me demande, avec tout ce qu’il se passe la-bas, est-cet qu’on va revoir les US revenir en force un jour ? J’ai l’impression que tout le monde oublie qu’il y a d’autres pays à côté, met bon, les USA, ça reste les USA. Mon pote me dit qu’il a investi là-bas et qu’il attend des jours meilleurs, mais j’suis un peu sceptique. Quelqu’un a des infos ou avis sur la quession ? Racontez !