Bonjour tout le monde, je suis une française qui a le rêve de vivre aux états unis (plus précisément à West Palm Beach près de miami).
J'ai beaucoup d'interrogations sur le fonctionnement de la vie la bas! je suis une jeune infirmière et mon ami travail dans l'hôtellerie (accueil...), est ce que ces deux secteurs sont accessible la bas? peut-on trouver du travail facilement et le garder? est ce que le salaire est interessant?. Nous n'avons pas encore d'enfants.
quels sont les avantages qu'on peut avoir en ce qui concerne le travail en général(sécurité de l'emploi...), le logement, l'assurance santé PAR RAPPORT A LA FRANCE! est ce que ça vaut le coup que je parte y vivre??? Et surtout est-ce que des personnes se retouvrent ou se sont retrouvé dans la même situation que nous??
Merci par avance pour vos futures réponses
A bientôt