História do U-111 - História

História do U-111 - História


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

U-III

Ex-submarino alemão: dp. 798 (surf.), 996 (subm.); 1. 235 ', b. 20Y` '; dr. 11 4'- S. 16,4 k. (surfar), 8,4 k. (subm.); cpl. 36; uma. 6 20 'tt., 1 4,1 ", 1 3,4"; cl. U lll)

O U-l l l foi depositado no início de 1917 em Vegesack, Alemanha, por Bremer Vulcan sob contrato com a Germaniawerit em Kiel, lançado em 5 de setembro de 1917; concluído pela Germaniawerft em Kiel e comissionado na Marinha Imperial Alemã em 30 de dezembro de 1917, Kapitanleutnant Beyersdorff no comando.

Depois de completar seu cruzeiro de shakedown em 17 de março de 1918, ela foi enviada para a IV U-Flottille, Hochseeflotte (Quarta Flotilha Submarina, Frota de Alto Mar). Ela partiu de Heligoland, uma ilha fortificada e base naval localizada bem dentro da baía alemã, em 25 de março. Após a viagem de ida, que a levou ao redor das Ilhas Orkney, a oeste das Ilhas Hébridas e ao sul ao longo da costa oeste da Irlanda, ela chegou em sua área de patrulha perto do Canal de St. George durante a primeira semana de abril. No dia 7, ela avistou seu primeiro alvo, o navio inglês SS Boscastle de 2.346 toneladas. O submarino fez um ataque de torpedo de superfície e afundou o navio com um único torpedo. Boscastle, no entanto, provou ser sua única vítima durante o primeiro cruzeiro. Ela operou nas proximidades do Canal de St. George por mais cinco dias sem encontrar mais navios e então começou a viagem de volta para a Alemanha. Depois de retroceder ao longo da rota que ela havia feito na viagem de ida, U-lll retornou à Alemanha em Emden em 24 de abril.

Um mês e três dias depois, o submarino saiu do estuário de Ems para iniciar seu segundo cruzeiro para atacar os mercantes aliados. Do Ems, ela seguiu pelo Mar do Norte. Em 28 de maio, seu segundo dia fora, ela encontrou um pequeno vapor dinamarquês, o SS Dronning Margrethe de 393 toneladas. Recusando-se a desperdiçar um valioso torpedo em um jogo tão pequeno, o U-111 trouxe suas armas de convés e afundou o dinamarquês com tiros. Do Mar do Norte, ela seguiu substancialmente a mesma rota de sua viagem inicial, chegando ao Canal de São Jorge no início de junho. Depois de uma patrulha malsucedida nas entradas de St. George's e dos canais ingleses, o submarino retirou-se da área e novamente refez sua rota de ida. Em 22 de junho, perto do Skaggerak, durante a última etapa de sua viagem de volta para casa, o submarino encontrou um veleiro norueguês carregado com madeira para as minas inglesas. Mais uma vez, ela desprezou o uso de um torpedo em favor de seus canhões de convés de 4,1 e 3,4 polegadas e crivou o SS Rana de 272 toneladas com tiros. Deixando o navio naufragado, o U-111 rumou para o sul através do Mar do Norte para Wilhelmshaven, onde chegou em 26 de junho.

O terceiro e último cruzeiro de combate do U-111 provou ser o menos bem-sucedido de todos. Ela partiu de Wilhelmshaven em 25 de agosto, transitou pelo Canal de Kiel e rumou para o norte através do Mar Báltico ao redor da Dinamarca para desembocar no Mar do Norte por meio do Skaggerak. Dali, ela contornou as Órcades e as Hébridas e rumou para o sul ao longo da costa oeste da Irlanda. O submarino então cruzou o Canal de São Jorge e entrou no mar da Irlanda. O tempo tempestuoso e o mar agitado a atormentaram durante todo o cruzeiro, e ela parece não ter encontrado nenhum navio aliado. Ela seguiu a mesma rota de volta à Alemanha e concluiu sua última patrulha em Emden em 30 de setembro.

Aparentemente, U-l l l permaneceu no porto de Emden até o fim das hostilidades em 11 de novembro. Nove dias após o armistício, ela foi entregue aos Aliados e internada em Harwich, na Inglaterra. Quando a Marinha dos Estados Unidos expressou interesse em adquirir vários dos mais recentes tipos de U-boats, os Aliados alocaram seis barcos - U 117, U-140, UB-148, UB-88 UC-97 e U-164 - para os Estados Unidos, com a condição de que sejam destruídos dentro de um ano após a transferência. Em março de 1919, 12 oficiais e 120 homens alistados chegaram à Inglaterra para transportar os seis submarinos de volta aos Estados Unidos. A tripulação designada para o U-164 encontrou o submarino em condições tão atrozes que foi impossível prepará-lo para o Victory Bond drive - o motivo aparente pelo qual ele foi adquirido. Por esse motivo, as autoridades americanas na Inglaterra providenciaram a substituição do U-164 canibalizado e dilapidado por U-lll. Logo depois disso, ela foi colocada em comissão na Marinha dos Estados Unidos, o tenente Comdr. Freeland A. Daubin no comando.

Por ter sido substituído pelo U-184 no último minuto, o U-lll não embarcou no dia 3 de abril com o restante da Ex-Força Expedicionária Submarina Alemã. Ela permaneceu em Harwich por mais quatro dias, enquanto sua tripulação conduzia um curso intensivo de familiarização e completava os reparos de última hora. Finalmente, em 7 de abril, ela saiu de Harwich e parou no Canal da Mancha. Em vez de seguir a rota seguida pelos outros U-boats através dos Açores e Bermudas, o oficial comandante do U-111 procurou recuperar o tempo que havia perdido cruzando o Atlântico diretamente através de uma rota de grande círculo. Nevoeiro, vendavais e mares agitados assediaram o barco U por todo o oceano. Em uma ocasião, ela quase afundou quando começou a se encher de água por causa de um galo do mar aberto. No entanto, um de seus tripulantes rastejou sob seus motores e na água escura e viscosa para encontrar e fechar o aparato ofensivo. Apesar das adversidades, o U-11 l fez sua passagem com sucesso e atracou em Nova York no dia 19 de abril, com tempo de sobra para cumprir suas tarefas na campanha do Victory Bond.

Em Nova York, enxames de turistas, repórteres e fotógrafos percorriam o submarino. Técnicos da Marinha e construtores de navios civis também tentaram aprender tudo o que pudessem sobre a construção de submarinos alemães no breve período antes de U-l l l partir de Nova York para visitas a vários portos no circuito de títulos da Vitória. Para a promoção de títulos, as costas dos Estados Unidos e as principais hidrovias do país foram divididas em cinco regiões diferentes, uma para cada um dos U-boats capturados, exceto o U-140. U-l l 1 visitou portos ao longo da costa da Nova Inglaterra e recebeu visitantes em conjunto com a campanha de vendas. O submarino completou seu itinerário designado no final do verão de 1919. Depois disso, ela e o UB-148 foram submetidos a uma extensa série de testes de desempenho antes de serem colocados no Estaleiro da Marinha da Filadélfia. Durante o verão de 1921, ela voltou ao mar para mais uma série de testes, desta vez como alvo de testes de artilharia e bombardeio aéreo. Como resultado desses experimentos, seu casco maltratado foi para o fundo do oceano em julho de 1921.


História do U-111 - História

Em um pequeno ensaio publicado no início desta semana, o secretário do Smithsonian Lonnie G. Bunch escreveu que o recente assassinato de George Floyd em Minnesota forçou o país a & # 8220confrontar a realidade de que, apesar dos ganhos obtidos nos últimos 50 anos, ainda somos um nação dilacerada pela desigualdade e divisão racial. & # 8221

Em meio a confrontos cada vez maiores entre os manifestantes e a polícia, discutir a questão racial & # 8212 desde a desigualdade embutida nas instituições americanas até os Estados Unidos & # 8217, uma longa e dolorosa história de violência contra os negros & # 8212 é um passo essencial para desencadear uma mudança significativa na sociedade. Para apoiar aqueles que lutam para iniciar essas conversas difíceis, o Museu Nacional de História e Cultura Afro-Americana do Smithsonian & # 8217s lançou recentemente um portal & # 8220Talking About Race & # 8221 com & # 8220ferramentas e orientação & # 8221 para educadores, pais, cuidadores e outras pessoas comprometido com a equidade.

& # 8220Falando sobre raça & # 8221 junta-se a um vasto tesouro de recursos da Smithsonian Institution dedicado a compreender o que Bunch descreve como América & # 8217s & # 8220 passado racial torturado. & # 8221 De Smithsonian artigos de revistas sobre escravidão & # 8217s Trail of Tears e a perturbadora resiliência do racismo científico à coleção do National Museum of American History & # 8217s de recursos do Mês da História Negra para educadores e um podcast Sidedoor sobre o Massacre da Corrida de Tulsa, esses 158 recursos foram criados para promover uma sociedade igualitária, encoraje o compromisso com escolhas imparciais e promova o anti-racismo em todos os aspectos da vida. As listas estão em negrito e organizadas por categoria.


Conteúdo

ASCII foi desenvolvido a partir do código telegráfico. Seu primeiro uso comercial foi como um código de teleimpressora de sete bits promovido pela Bell data services. O trabalho no padrão ASCII começou em maio de 1961, com a primeira reunião do subcomitê X3.2 da American Standards Association (ASA) (agora American National Standards Institute ou ANSI). A primeira edição do padrão foi publicada em 1963, [4] [5] passou por uma grande revisão durante 1967, [6] [7] e experimentou sua atualização mais recente durante 1986. [8] Em comparação com os códigos telegráficos anteriores, o proposto O código da campainha e ASCII foram solicitados para uma classificação mais conveniente (ou seja, alfabetização) das listas e recursos adicionais para dispositivos diferentes de teleimpressoras. [ citação necessária ]

O uso do formato ASCII para Network Interchange foi descrito em 1969. [9] Esse documento foi formalmente elevado a um padrão da Internet em 2015. [10]

Originalmente baseado no alfabeto inglês, o ASCII codifica 128 caracteres especificados em inteiros de sete bits, conforme mostrado no gráfico ASCII acima. [11] Noventa e cinco dos caracteres codificados são imprimíveis: incluem os dígitos 0 para 9, letras minúsculas uma para z, letras maiúsculas UMA para Ze símbolos de pontuação. Além disso, a especificação ASCII original incluía 33 códigos de controle de não impressão originados de máquinas teletipo, a maioria deles agora obsoleta, [12] embora alguns ainda sejam comumente usados, como o retorno de carro, alimentação de linha e códigos de tabulação.

Por exemplo, minúsculas eu seria representado na codificação ASCII pelo binário 1101001 = hexadecimal 69 (eu é a nona letra) = decimal 105.

O American Standard Code for Information Interchange (ASCII) foi desenvolvido sob os auspícios de um comitê da American Standards Association (ASA), denominado comitê X3, por seu subcomitê X3.2 (posteriormente X3L2) e, posteriormente, pelo X3 desse subcomitê. 2.4 grupo de trabalho (agora INCITS). O ASA tornou-se o Instituto de Padrões dos Estados Unidos da América (USASI) [3]: 211 e, finalmente, o Instituto Nacional de Padrões Americanos (ANSI).

Com os outros caracteres especiais e códigos de controle preenchidos, o ASCII foi publicado como ASA X3.4-1963, [5] [13] deixando 28 posições de código sem qualquer significado atribuído, reservadas para padronização futura, e um código de controle não atribuído. [3]: 66, 245 Houve algum debate na época se deveria haver mais caracteres de controle em vez do alfabeto minúsculo. [3]: 435 A indecisão não durou muito: durante maio de 1963, o Grupo de Trabalho CCITT sobre o Novo Alfabeto Telegráfico propôs atribuir caracteres minúsculos a Gravetos [a] [14] 6 e 7, [15] e a Organização Internacional de Padronização TC 97 SC 2 votaram em outubro para incorporar a mudança em seu projeto de norma. [16] O grupo de trabalho X3.2.4 votou sua aprovação para a mudança para ASCII em sua reunião de maio de 1963. [17] Localizando as letras minúsculas em Gravetos [a] [14] 6 e 7 fizeram com que os caracteres diferissem no padrão de bits da caixa alta por um único bit, o que simplificou a correspondência de caracteres que não diferenciam maiúsculas de minúsculas e a construção de teclados e impressoras.

O comitê X3 fez outras mudanças, incluindo outros novos caracteres (a chave e os caracteres da barra vertical), [18] renomeando alguns caracteres de controle (SOM se tornou o início do cabeçalho (SOH)) e movendo ou removendo outros (RU foi removido). [3]: 247–248 ASCII foi subsequentemente atualizado como USAS X3.4-1967, [6] [19] então USAS X3.4-1968, ANSI X3.4-1977 e, finalmente, ANSI X3.4-1986. [8] [20]

Revisões do padrão ASCII:

  • ASA X3.4-1963 [3] [5] [19] [20]
  • ASA X3.4-1965 (aprovado, mas não publicado, mesmo assim usado por IBM 2260 e amp 2265 Display Stations e IBM 2848 Display Control) [3]: 423, 425-428, 435-439 [21] [19] [20]
  • USAS X3.4-1967 [3] [6] [20]
  • USAS X3.4-1968 [3] [20]
  • ANSI X3.4-1977 [20]
  • ANSI X3.4-1986 [8] [20]
  • ANSI X3.4-1986 (R1992)
  • ANSI X3.4-1986 (R1997)
  • ANSI INCITS 4-1986 (R2002) [22]
  • ANSI INCITS 4-1986 (R2007) [23]
  • (ANSI) INCITS 4-1986 [R2012] [24]
  • (ANSI) INCITS 4-1986 [R2017] [25]

No padrão X3.15, o comitê X3 também abordou como o ASCII deve ser transmitido (o bit menos significativo primeiro), [3]: 249–253 [26] e como deve ser gravado em fita perfurada. Eles propuseram um padrão de 9 trilhas para fita magnética e tentaram lidar com alguns formatos de cartão perfurado.

Largura de bit

O subcomitê X3.2 projetou ASCII com base nos sistemas de codificação teleimpressora anteriores. Como outras codificações de caracteres, ASCII especifica uma correspondência entre padrões de bits digitais e símbolos de caracteres (ou seja, grafemas e caracteres de controle). Isso permite que os dispositivos digitais se comuniquem entre si e processem, armazenem e comuniquem informações orientadas a caracteres, como a linguagem escrita. Antes do ASCII ser desenvolvido, as codificações em uso incluíam 26 caracteres alfabéticos, 10 dígitos numéricos e de 11 a 25 símbolos gráficos especiais. Para incluir todos estes, e controlar os caracteres compatíveis com o padrão do Alfabeto Telegráfico Internacional No. 2 (ITA2) de 1924 do Comité Consultatif International Téléphonique et Télégraphique (CCITT), [27] [28] FIELDATA (1956 [ citação necessária ]), e no início do EBCDIC (1963), mais de 64 códigos eram necessários para ASCII.

O ITA2, por sua vez, foi baseado no código telegráfico de 5 bits que Émile Baudot inventou em 1870 e patenteou em 1874. [28]

O comitê debateu a possibilidade de uma função shift (como no ITA2), que permitiria que mais de 64 códigos fossem representados por um código de seis bits. Em um código deslocado, alguns códigos de caractere determinam escolhas entre opções para os seguintes códigos de caractere. Ele permite a codificação compacta, mas é menos confiável para a transmissão de dados, pois um erro na transmissão do código de deslocamento normalmente torna uma grande parte da transmissão ilegível. O comitê de padrões decidiu contra a mudança e, portanto, o ASCII exigia pelo menos um código de sete bits. [3]: 215, 236 §4

O comitê considerou um código de oito bits, uma vez que oito bits (octetos) permitiriam que dois padrões de quatro bits codificassem com eficiência dois dígitos com decimais em código binário. No entanto, seria necessário que toda a transmissão de dados enviasse oito bits, quando sete seriam suficientes. O comitê votou para usar um código de sete bits para minimizar os custos associados à transmissão de dados. Como a fita perfurada na época podia gravar oito bits em uma posição, ela também permitia um bit de paridade para verificação de erro, se desejado. [3]: 217, 236 §5 Máquinas de oito bits (com octetos como o tipo de dados nativo) que não usavam verificação de paridade normalmente definiam o oitavo bit como 0. [29]

Organização interna

O próprio código foi padronizado de forma que a maioria dos códigos de controle estivessem juntos e todos os códigos gráficos estivessem juntos, para facilitar a identificação. Os dois primeiros chamados Sticks ASCII [a] [14] (32 posições) foram reservadas para caracteres de controle. [3]: 220, 236 8,9) O caractere "espaço" teve que vir antes dos gráficos para tornar a classificação mais fácil, então se tornou a posição 20hex [3]: 237 §10 pela mesma razão, muitos sinais especiais comumente usados ​​como separadores foram colocados antes dos dígitos. O comitê decidiu que era importante oferecer suporte a alfabetos de 64 caracteres maiúsculos e escolheu padronizar ASCII para que pudesse ser reduzido facilmente a um conjunto de códigos gráficos utilizáveis ​​de 64 caracteres, [3]: 228, 237 §14 como foi feito no Código DEC SIXBIT (1963). As letras minúsculas, portanto, não foram intercaladas com maiúsculas. Para manter as opções disponíveis para letras minúsculas e outros gráficos, os códigos especiais e numéricos foram organizados antes das letras e da letra UMA foi colocado na posição 41hex para coincidir com o rascunho do padrão britânico correspondente. [3]: 238 §18 Os dígitos 0–9 são prefixados com 011, mas os 4 bits restantes correspondem aos seus respectivos valores em binário, tornando a conversão com decimais codificados em binário direta.

Muitos dos caracteres não alfanuméricos foram posicionados para corresponder à sua posição deslocada nas máquinas de escrever, uma sutileza importante é que eles foram baseados em mecânico máquinas de escrever, não elétrico máquinas de escrever. [30] As máquinas de escrever mecânicas seguiram o padrão estabelecido pela Remington No. 2 (1878), a primeira máquina de escrever com uma tecla shift, e os valores deslocados de 23456789- foram "# $% _ & amp '() - primeiras máquinas de escrever omitidas 0 e 1, usando O (letra maiúscula o) e eu (letra minúscula eu) em vez disso, mas 1! e 0) os pares tornaram-se padrão quando 0 e 1 se tornaram comuns. Assim, em ASCII! "# $% Foram colocados no segundo stick, [a] [14] posições 1–5, correspondendo aos dígitos 1–5 no stick adjacente. [A] [14] Os parênteses não podiam corresponder para 9 e 0, no entanto, porque o lugar correspondente a 0 foi levado pelo personagem de espaço. Isso foi resolvido removendo _ (sublinhado) de 6 e mudando os caracteres restantes, que correspondiam a muitas máquinas de escrever europeias que colocavam os parênteses com 8 e 9. Essa discrepância das máquinas de escrever levou a teclados com pares de bits, notavelmente o Teletype Model 33, que usava o layout deslocado para a esquerda correspondente ao ASCII, não às máquinas de escrever mecânicas tradicionais. As máquinas de escrever elétricas, notadamente a IBM Selectric (1961), usaram um layout um pouco diferente que se tornou padrão em computadores - seguindo o IBM PC (1981), especialmente o Modelo M (1984) - e, portanto, os valores de deslocamento para símbolos em teclados modernos não correspondem tão próximo da tabela ASCII quanto os teclados anteriores. O /? par também data do número 2, e os pares, & lt. & gt foram usados ​​em alguns teclados (outros, incluindo o número 2, não mudaram, (vírgula) ou. (ponto final) para que pudessem ser usados ​​em maiúsculas sem mudança). No entanto, o ASCII divide o: par (datando do nº 2) e os símbolos matemáticos reorganizados (convenções variadas, comumente - * = +) para: * + - =.

Alguns caracteres comuns não foram incluídos, notavelmente ½¼ ¢, enquanto ^ `

foram incluídos como diacríticos para uso internacional e & lt & gt para uso matemático, junto com os caracteres de linha simples | (além de comum /). o @ o símbolo não foi usado na Europa continental e o comitê esperava que fosse substituído por um símbolo UMA na variação francesa, então o @ foi colocado na posição 40hex, logo antes da letra A. [3]: 243

Os códigos de controle considerados essenciais para a transmissão de dados foram o início da mensagem (SOM), o final do endereço (EOA), o final da mensagem (EOM), o final da transmissão (EOT), "quem é você?" (WRU), "e você?" (RU), um controle de dispositivo reservado (DC0), inativo síncrono (SYNC) e reconhecimento (ACK). Eles foram posicionados para maximizar a distância de Hamming entre seus padrões de bits. [3]: 243-245

Ordem do personagem

O pedido de código ASCII também é chamado ASCIIbético pedido.[31] A coleta de dados às vezes é feita nesta ordem, em vez da ordem alfabética "padrão" (seqüência de classificação). Os principais desvios na ordem ASCII são:

  • Todas as maiúsculas vêm antes das letras minúsculas, por exemplo, "Z" precede "a"
  • Os dígitos e muitos sinais de pontuação vêm antes das letras

Uma ordem intermediária converte letras maiúsculas em minúsculas antes de comparar os valores ASCII.

Personagens de controle

ASCII reserva os primeiros 32 códigos (números 0-31 decimais) para caracteres de controle: códigos originalmente destinados não a representar informações imprimíveis, mas sim a controlar dispositivos (como impressoras) que fazem uso de ASCII, ou para fornecer meta-informações sobre dados fluxos como os armazenados em fita magnética.

Por exemplo, o caractere 10 representa a função "avanço de linha" (que faz com que a impressora avance seu papel) e o caractere 8 representa "retrocesso". RFC 2822 refere-se a caracteres de controle que não incluem retorno de carro, alimentação de linha ou espaço em branco como caracteres de controle sem espaço em branco. [32] Exceto para os caracteres de controle que prescrevem formatação orientada a linha elementar, ASCII não define nenhum mecanismo para descrever a estrutura ou aparência do texto dentro de um documento. Outros esquemas, como linguagens de marcação, página de endereço e layout e formatação do documento.

O padrão ASCII original usava apenas frases descritivas curtas para cada caractere de controle. A ambigüidade que isso causou às vezes era intencional, por exemplo, quando um caractere seria usado de forma ligeiramente diferente em um link de terminal e em um fluxo de dados, e às vezes acidental, por exemplo, com o significado de "excluir".

Provavelmente, o dispositivo mais influente na interpretação desses personagens foi o Teletype Model 33 ASR, que era um terminal de impressão com uma opção de leitor / furador de fita de papel disponível. A fita de papel era um meio muito popular para armazenamento de programas de longo prazo até a década de 1980, menos custosa e de certa forma menos frágil do que a fita magnética. Em particular, as atribuições da máquina Teletype Model 33 para os códigos 17 (Control-Q, DC1, também conhecido como XON), 19 (Control-S, DC3, também conhecido como XOFF) e 127 (Delete) tornaram-se padrões de fato. O Modelo 33 também se destacou por interpretar literalmente a descrição do Controle-G (código 7, BEL, que significa alertar o operador de forma audível), pois a unidade continha uma campainha real que tocou ao receber um caractere BEL. Como o teclado da tecla O também exibia um símbolo de seta para a esquerda (de ASCII-1963, que tinha esse caractere em vez de sublinhado), um uso não compatível do código 15 (Control-O, Shift In) interpretado como "excluir caractere anterior" também foi adotado por muitos sistemas antigos de compartilhamento de tempo, mas acabou sendo negligenciado.

Quando um ASR Teletipo 33 equipado com leitor de fita de papel automático recebeu um Control-S (XOFF, uma abreviatura de transmit off), fez com que o leitor de fita parasse de receber Control-Q (XON, "transmitir em") causou o leitor de fita para retomar. Essa técnica foi adotada por vários sistemas operacionais de computador antigos como um sinal de "aperto de mão" avisando um remetente para interromper a transmissão devido ao estouro iminente que persiste até hoje em muitos sistemas como uma técnica de controle de saída manual. Em alguns sistemas, o Control-S mantém seu significado, mas o Control-Q é substituído por um segundo Control-S para retomar a saída. O 33 ASR também pode ser configurado para empregar Control-R (DC2) e Control-T (DC4) para iniciar e parar o punção de fita em algumas unidades equipadas com esta função, as letras de caracteres de controle correspondentes na tecla acima da letra eram TAPE e FITA respectivamente. [33]

Apagar & amp Backspace

O teletipo não conseguia mover a cabeça para trás, por isso não colocou uma tecla no teclado para enviar um BS (backspace). Em vez disso, havia uma chave marcada RUB OUT que enviou o código 127 (DEL). O objetivo desta chave era apagar erros em uma fita de papel datilografada à mão: o operador tinha que apertar um botão no punção de fita para recuá-la e, em seguida, digitar o apagamento, que perfurava todos os furos e substituía o erro por um caractere que foi concebido para ser ignorado. [34] Teletipos eram comumente usados ​​para os computadores mais baratos da Digital Equipment Corporation, então esses sistemas tinham que usar a chave disponível e, portanto, o código DEL para apagar o caractere anterior. [35] [36] Por causa disso, os terminais de vídeo DEC (por padrão) enviaram o código DEL para a tecla marcada "Backspace", enquanto a tecla marcada "Delete" enviou uma sequência de escape, enquanto muitos outros terminais enviaram BS para a tecla Backspace . O driver do terminal Unix só pode usar um código para apagar o caractere anterior, isso pode ser definido como BS ou DEL, mas não ambos, resultando em um longo período de aborrecimento onde os usuários tinham que corrigi-lo dependendo de qual terminal estavam usando (shells que permitem edição de linha, como ksh, bash e zsh, entendem ambos). A suposição de que nenhuma chave enviou um BS fez com que Control + H fosse usado para outros propósitos, como o comando de prefixo "help" no GNU Emacs. [37]

Fuga

Muitos outros códigos de controle receberam significados bastante diferentes dos originais. O caractere de "escape" (ESC, código 27), por exemplo, foi originalmente planejado para permitir o envio de outros caracteres de controle como literais em vez de invocar seu significado. Este é o mesmo significado de "escape" encontrado em codificações de URL, strings de linguagem C e outros sistemas onde certos caracteres têm um significado reservado. Com o tempo, esse significado foi cooptado e, eventualmente, alterado. No uso moderno, um ESC enviado para o terminal geralmente indica o início de uma sequência de comando geralmente na forma de um chamado "código de escape ANSI" (ou, mais apropriadamente, um "Introdutor de Sequência de Controle") do ECMA-48 ( 1972) e seus sucessores, começando com ESC seguido por um caractere "[" (colchete esquerdo). Um ESC enviado do terminal é mais frequentemente usado como um caractere fora da banda usado para encerrar uma operação, como nos editores de texto TECO e vi. Na interface gráfica do usuário (GUI) e nos sistemas de janelas, o ESC geralmente faz com que um aplicativo aborte sua operação atual ou saia (encerre) completamente.

Fim da linha

A ambigüidade inerente de muitos caracteres de controle, combinada com seu uso histórico, criou problemas ao transferir arquivos de "texto simples" entre sistemas. O melhor exemplo disso é o problema de nova linha em vários sistemas operacionais. As máquinas de teletipo exigiam que uma linha de texto terminasse com "Retorno de carro" (que move o cabeçote de impressão para o início da linha) e "Alimentação de linha" (que avança o papel uma linha sem mover o cabeçote de impressão). O nome "Carriage Return" vem do fato de que em uma máquina de escrever manual o carro que segurava o papel se movia enquanto a posição onde as barras de tipo batiam na fita permanecia parada. Todo o carro teve que ser empurrado (retornado) para a direita para posicionar a margem esquerda do papel para a próxima linha.

Os sistemas operacionais DEC (OS / 8, RT-11, RSX-11, RSTS, TOPS-10, etc.) usavam ambos os caracteres para marcar o fim de uma linha para que o dispositivo de console (originalmente máquinas de teletipo) funcionasse. Na época em que os chamados "TTYs de vidro" (mais tarde chamados de CRTs ou terminais) surgiram, a convenção estava tão bem estabelecida que a compatibilidade com versões anteriores exigia a continuação da convenção. Quando Gary Kildall criou o CP / M, ele foi inspirado por algumas convenções de interface de linha de comando usadas no DEC RT-11. Até a introdução do PC DOS em 1981, a IBM não tinha participação nisso porque seus sistemas operacionais da década de 1970 usavam EBCDIC em vez de ASCII e eram orientados para entrada de cartão perfurado e saída de impressora de linha em que o conceito de retorno de carro não fazia sentido. O PC DOS da IBM (também comercializado como MS-DOS pela Microsoft) herdou a convenção em virtude de ser vagamente baseado no CP / M, [38] e o Windows a herdou do MS-DOS.

Infelizmente, exigir dois caracteres para marcar o final de uma linha introduz complexidade desnecessária e questões sobre como interpretar cada caractere quando encontrado sozinho. Para simplificar as questões, os fluxos de dados de texto simples, incluindo arquivos, no Multics [39] usavam o feed de linha (LF) sozinho como um terminador de linha. Sistemas Unix e semelhantes a Unix, e sistemas Amiga, adotaram esta convenção da Multics. O Macintosh OS, Apple DOS e ProDOS originais, por outro lado, usavam o retorno de carro (CR) sozinho como um terminador de linha. No entanto, como a Apple substituiu esses sistemas operacionais pelo sistema operacional MacOS baseado em Unix, eles agora usam alimentação de linha ( LF) também. O Radio Shack TRS-80 também usava um CR solitário para encerrar linhas.

Os computadores conectados à ARPANET incluíam máquinas que executam sistemas operacionais como TOPS-10 e TENEX usando terminações de linha CR-LF, máquinas que executam sistemas operacionais como Multics usando terminações de linha LF e máquinas que executam sistemas operacionais como OS / 360 que representam linhas como uma contagem de caracteres seguida pelos caracteres da linha e que usava EBCDIC em vez de ASCII. O protocolo Telnet definiu um "Terminal Virtual de Rede" (NVT) ASCII, de forma que as conexões entre hosts com diferentes convenções de terminação de linha e conjuntos de caracteres pudessem ser suportadas pela transmissão de um formato de texto padrão pela rede. O Telnet usou ASCII junto com as terminações de linha CR-LF, e o software usando outras convenções traduziria entre as convenções locais e o NVT. [40] O File Transfer Protocol adotou o protocolo Telnet, incluindo o uso do Terminal Virtual de Rede, para uso ao transmitir comandos e transferir dados no modo ASCII padrão. [41] [42] Isso adiciona complexidade às implementações desses protocolos e de outros protocolos de rede, como os usados ​​para e-mail e a World Wide Web, em sistemas que não usam a convenção de terminação de linha CR-LF da NVT. [43] [44]

Fim do arquivo / fluxo

O monitor PDP-6, [35] e seu sucessor PDP-10 TOPS-10, [36] usaram Control-Z (SUB) como uma indicação de fim de arquivo para entrada de um terminal. Alguns sistemas operacionais, como CP / M, rastreiam o comprimento do arquivo apenas em unidades de blocos de disco e usam Control-Z para marcar o final do texto real no arquivo. [45] Por essas razões, EOF, ou fim de arquivo, foi usado coloquialmente e convencionalmente como um acrônimo de três letras para Control-Z em vez de SUBstitute. O código de fim de texto (ETX), também conhecido como Control-C, era inapropriado por vários motivos, enquanto usar Z como código de controle para encerrar um arquivo é análogo a encerrar o alfabeto e serve como um método muito conveniente ajuda mnemônica. Uma convenção historicamente comum e ainda prevalente usa a convenção de código ETX para interromper e parar um programa por meio de um fluxo de dados de entrada, geralmente de um teclado.

Na biblioteca C e nas convenções do Unix, o caractere nulo é usado para encerrar strings de texto, tais strings terminadas em nulo podem ser conhecidas em abreviatura como ASCIZ ou ASCIIZ, onde aqui Z significa "zero".

Gráfico de código de controle

Binário Out Dez Hex Abreviação [b] [c] [d] Nome (1967)
1963 1965 1967
000 0000 000 0 00 NULO NUL ^@ Nulo
000 0001 001 1 01 SOM SOH ^ A Início do rumo
000 0010 002 2 02 EOA STX ^ B Início do Texto
000 0011 003 3 03 EOM ETX ^ C Fim do Texto
000 0100 004 4 04 EOT ^ D Fim da Transmissão
000 0101 005 5 05 WRU ENQ ^ E Investigação
000 0110 006 6 06 RU ACK ^ F Reconhecimento
000 0111 007 7 07 SINO BEL ^ G uma Sino
000 1000 010 8 08 FE0 BS ^ H b Backspace [e] [f]
000 1001 011 9 09 HT / SK HT ^ I t Guia horizontal [g]
000 1010 012 10 0A LF ^ J n Alimentação de linha
000 1011 013 11 0B VTAB VT ^ K v Guia Vertical
000 1100 014 12 0C FF ^ L f Feed de formulário
000 1101 015 13 0D CR ^ M r Retorno de carro [h]
000 1110 016 14 0E TÃO ^ N Shift Out
000 1111 017 15 0F SI ^ O Mudar para dentro
001 0000 020 16 10 DC0 DLE ^ P Escape do link de dados
001 0001 021 17 11 DC1 ^ Q Controle de dispositivo 1 (geralmente XON)
001 0010 022 18 12 DC2 ^ R Controle de dispositivo 2
001 0011 023 19 13 DC3 ^ S Controle de dispositivo 3 (frequentemente XOFF)
001 0100 024 20 14 DC4 ^ T Controle de dispositivo 4
001 0101 025 21 15 ERRAR NAK ^ U Reconhecimento Negativo
001 0110 026 22 16 SINCRONIZAR SYN ^ V Inativo Síncrono
001 0111 027 23 17 LEM ETB ^ W Fim do bloco de transmissão
001 1000 030 24 18 S0 POSSO ^ X Cancelar
001 1001 031 25 19 S1 EM ^ Y Fim do Meio
001 1010 032 26 1A S2 WL SUB ^ Z Substituto
001 1011 033 27 1B S3 ESC ^[ e [i] Escape [j]
001 1100 034 28 1C S4 FS ^ Separador de Arquivo
001 1101 035 29 1D S5 GS ^] Separador de Grupo
001 1110 036 30 1E S6 RS ^^ [k] Separador de Registro
001 1111 037 31 1F S7 nós ^_ Separador de Unidade
111 1111 177 127 7F DEL ^? Excluir [l] [f]

Outras representações podem ser usadas por equipamentos especializados, por exemplo, gráficos ISO 2047 ou números hexadecimais.

Caracteres imprimíveis

Códigos 20hex a 7Ehex, conhecidos como caracteres imprimíveis, representam letras, dígitos, sinais de pontuação e alguns símbolos diversos. Existem 95 caracteres imprimíveis no total. [m]

Código 20hex, o caractere "espaço", denota o espaço entre as palavras, conforme produzido pela barra de espaço de um teclado. Como o caractere de espaço é considerado um gráfico invisível (em vez de um caractere de controle) [3]: 223 [46], ele é listado na tabela abaixo em vez de na seção anterior.

Código 7Fhex corresponde ao caractere de controle "excluir" (DEL) não imprimível e, portanto, é omitido neste gráfico, pois é abordado no gráfico da seção anterior. As versões anteriores do ASCII usavam a seta para cima em vez do acento circunflexo (5Ehex) e a seta para a esquerda em vez do sublinhado (5Fhex). [5] [47]

Conjunto de caracteres

Os pontos que representavam um personagem diferente nas versões anteriores (a versão de 1963 ou o rascunho de 1965) são exibidos em caixas. Os pontos atribuídos desde a versão de 1963, mas inalterados de outra forma, são mostrados ligeiramente sombreados em relação às cores da legenda.

ASCII foi usado comercialmente pela primeira vez em 1963 como um código de tele-impressora de sete bits para a rede TWX (TeletypeWriter eXchange) da American Telephone & amp Telegraph. O TWX originalmente usava o ITA2 de cinco bits anterior, que também era usado pelo sistema de tele-impressora concorrente da Telex. Bob Bemer introduziu recursos como a sequência de escape. [4] Seu colega britânico Hugh McGregor Ross ajudou a popularizar este trabalho - de acordo com Bemer, "tanto que o código que se tornaria ASCII foi inicialmente chamado de Código Bemer-Ross na Europa ". [48] Por causa de seu extenso trabalho em ASCII, Bemer foi chamado de" o pai do ASCII ". [49]

Em 11 de março de 1968, o presidente dos Estados Unidos Lyndon B. Johnson ordenou que todos os computadores adquiridos pelo Governo Federal dos Estados Unidos suportassem ASCII, declarando: [50] [51] [52]

Também aprovei as recomendações do Secretário de Comércio [Luther H. Hodges] com relação aos padrões para registrar o Código Padrão para Intercâmbio de Informações em fitas magnéticas e de papel quando usadas em operações de computador. Todos os computadores e configurações de equipamentos relacionados trazidos para o inventário do Governo Federal em e após 1 de julho de 1969, devem ter a capacidade de usar o Código Padrão para Intercâmbio de Informações e os formatos prescritos pelos padrões de fita magnética e fita de papel quando essas mídias são usadas.

ASCII era a codificação de caracteres mais comum na World Wide Web até dezembro de 2007, quando a codificação UTF-8 a ultrapassou. O UTF-8 é compatível com as versões anteriores ASCII. [53] [54] [55]

À medida que a tecnologia da computação se espalhou pelo mundo, diferentes órgãos de padronização e corporações desenvolveram muitas variações do ASCII para facilitar a expressão de idiomas diferentes do inglês que usavam alfabetos de base romana. Alguém poderia classificar algumas dessas variações como "extensões ASCII", embora alguns usem mal esse termo para representar todas as variantes, incluindo aquelas que não preservam o mapa de caracteres ASCII no intervalo de 7 bits. Além disso, as extensões ASCII também foram rotuladas incorretamente como ASCII.

Códigos de 7 bits

Desde o início de seu desenvolvimento, [56] o ASCII pretendia ser apenas uma das várias variantes nacionais de um padrão de código de caractere internacional.

Outros organismos de padrões internacionais ratificaram codificações de caracteres como ISO 646 (1967) que são idênticas ou quase idênticas a ASCII, com extensões para caracteres fora do alfabeto inglês e símbolos usados ​​fora dos Estados Unidos, como o símbolo da libra esterlina do Reino Unido (£). Quase todos os países precisavam de uma versão adaptada do ASCII, já que o ASCII atendia apenas às necessidades dos Estados Unidos e de alguns outros países. Por exemplo, o Canadá tinha sua própria versão que suportava caracteres franceses.

Muitos outros países desenvolveram variantes de ASCII para incluir letras não inglesas (por exemplo, é, ñ, ß, Ł), símbolos de moeda (por exemplo, £, ¥), etc. Veja também YUSCII (Iugoslávia).

Ele compartilharia a maioria dos caracteres em comum, mas atribuiria outros caracteres úteis localmente a vários pontos de código reservados para "uso nacional". No entanto, os quatro anos que decorreram entre a publicação do ASCII-1963 e a primeira aceitação da ISO de uma recomendação internacional durante 1967 [57] fizeram com que as escolhas do ASCII para os caracteres de uso nacional parecessem ser padrões de facto para o mundo, causando confusão e incompatibilidade uma vez que outros países começaram a fazer suas próprias atribuições a esses pontos de código.

ISO / IEC 646, como ASCII, é um conjunto de caracteres de 7 bits. Ele não disponibiliza nenhum código adicional, portanto, os mesmos pontos de código codificam caracteres diferentes em países diferentes. Os códigos de escape foram definidos para indicar qual variante nacional aplicada a um trecho de texto, mas raramente eram usados, por isso muitas vezes era impossível saber com qual variante trabalhar e, portanto, qual caractere um código representava e, em geral, o texto. os sistemas de processamento poderiam lidar com apenas uma variante de qualquer maneira.

Como os caracteres de colchetes e chaves de ASCII foram atribuídos a pontos de código de "uso nacional" que foram usados ​​para letras acentuadas em outras variantes nacionais da ISO / IEC 646, um programador alemão, francês ou sueco etc. usando sua variante nacional da ISO / IEC 646, em vez de ASCII, teve que escrever e, portanto, ler algo como

Trígrafos C foram criados para resolver esse problema para ANSI C, embora sua introdução tardia e implementação inconsistente em compiladores limitassem seu uso. Muitos programadores mantinham seus computadores em US-ASCII, então texto simples em sueco, alemão etc. (por exemplo, em e-mail ou Usenet) continha "<,>" e variantes semelhantes no meio das palavras, algo que esses programadores conseguiram costumava ser. Por exemplo, um programador sueco enviando um e-mail para outro programador perguntando se eles deveriam ir almoçar, poderia obter "N sar" como a resposta, que deveria ser "Nä jag har smörgåsar" que significa "Não, eu tenho sanduíches ".

No Japão e na Coréia, ainda a partir de 2020, uma variação do ASCII é usada, em que a barra invertida (hex 5C) é processada como ¥ (um sinal de iene, no Japão) ou ₩ (um sinal de Won, na Coréia). Isso significa que, por exemplo, o caminho do arquivo C: Usuários Smith é mostrado como C: ¥ Usuários ¥ Smith (no Japão) ou C: ₩ Usuários ₩ Smith (na Coréia).

Códigos de 8 bits

Eventualmente, à medida que os computadores de 8, 16 e 32 bits (e mais tarde 64 bits) começaram a substituir os computadores de 12, 18 e 36 bits como a norma, tornou-se comum usar um byte de 8 bits para armazenar cada caractere na memória, fornecendo uma oportunidade para parentes estendidos de ASCII de 8 bits. Na maioria dos casos, eles se desenvolveram como verdadeiras extensões de ASCII, deixando o mapeamento de caracteres original intacto, mas adicionando definições de caracteres adicionais após os primeiros 128 (ou seja, 7 bits) caracteres.

As codificações incluem ISCII (Índia), VISCII (Vietnã). Embora essas codificações às vezes sejam chamadas de ASCII, o ASCII verdadeiro é definido estritamente apenas pelo padrão ANSI.

A maioria dos primeiros sistemas de computador doméstico desenvolveram seus próprios conjuntos de caracteres de 8 bits contendo desenhos de linha e glifos de jogo, e frequentemente preenchiam alguns ou todos os caracteres de controle de 0 a 31 com mais gráficos. Os computadores Kaypro CP / M usavam os 128 caracteres "superiores" para o alfabeto grego.

O código PETSCII da Commodore International usado para seus sistemas de 8 bits é provavelmente único entre os códigos pós-1970 por ser baseado em ASCII-1963, em vez do ASCII-1967 mais comum, como encontrado no computador ZX Spectrum. Os computadores Atari de 8 bits e Galaksija também usaram variantes ASCII.

O IBM PC definiu a página de código 437, que substituiu os caracteres de controle por símbolos gráficos, como rostos sorridentes, e mapeou caracteres gráficos adicionais para as 128 posições superiores. Sistemas operacionais como DOS suportavam essas páginas de código e os fabricantes de PCs IBM as suportavam em hardware. A Digital Equipment Corporation desenvolveu o Multinational Character Set (DEC-MCS) para uso no popular terminal VT220 como uma das primeiras extensões projetadas mais para idiomas internacionais do que para gráficos em bloco. O Macintosh definiu Mac OS Roman e Postscript também definiu um conjunto, ambos continham letras internacionais e sinais de pontuação tipográfica em vez de gráficos, mais como conjuntos de caracteres modernos.

O padrão ISO / IEC 8859 (derivado do DEC-MCS) finalmente forneceu um padrão que a maioria dos sistemas copiava (pelo menos com a mesma precisão com que copiava ASCII, mas com muitas substituições). Uma outra extensão popular projetada pela Microsoft, o Windows-1252 (freqüentemente rotulado como ISO-8859-1), adicionou os sinais de pontuação tipográficos necessários para a impressão de texto tradicional. ISO-8859-1, Windows-1252 e o ASCII de 7 bits original eram as codificações de caracteres mais comuns até 2008, quando o UTF-8 se tornou mais comum. [54]

ISO / IEC 4873 introduziu 32 códigos de controle adicionais definidos no intervalo hexadecimal 80–9F, como parte da extensão da codificação ASCII de 7 bits para se tornar um sistema de 8 bits. [58]

Unicode

O Unicode e o conjunto de caracteres universais (UCS) ISO / IEC 10646 têm uma variedade muito maior de caracteres e suas várias formas de codificação começaram a suplantar o ISO / IEC 8859 e ASCII rapidamente em muitos ambientes. Enquanto o ASCII é limitado a 128 caracteres, o Unicode e o UCS suportam mais caracteres, separando os conceitos de identificação única (usando números naturais chamados pontos de código) e codificação (para formatos binários de 8, 16 ou 32 bits, chamados UTF-8, UTF-16 e UTF-32).

ASCII foi incorporado ao conjunto de caracteres Unicode (1991) como os primeiros 128 símbolos, portanto, os caracteres ASCII de 7 bits têm os mesmos códigos numéricos em ambos os conjuntos. Isso permite que o UTF-8 seja compatível com versões anteriores com ASCII de 7 bits, pois um arquivo UTF-8 contendo apenas caracteres ASCII é idêntico a um arquivo ASCII contendo a mesma sequência de caracteres. Ainda mais importante, a compatibilidade direta é garantida como software que reconhece apenas caracteres ASCII de 7 bits como especiais e não altera os bytes com o conjunto de bits mais alto (como geralmente é feito para suportar extensões ASCII de 8 bits, como ISO-8859-1) preservará os dados UTF-8 inalterados. [59]


Por Thomas Wildenberg

Uma tripulação de arma de fogo pratica em uma montaria quádrupla de 1,1 polegadas no Dam Neck Training Center Virginia. Observe as revistas grandes e pesadas. (Arquivos Nacionais)

O canhão mecânico quádruplo de 1,1 polegadas, carinhosamente conhecido como "Chicago Piano", foi o primeiro canhão antiaéreo de médio alcance adotado pela Marinha dos Estados Unidos. 1 Projetado e construído pela Naval Gun Factory durante a Grande Depressão, foi projetado especificamente para combater bombardeiros de mergulho. A arma de quatro canos disparou um projétil explosivo de meio quilo que foi fundido para explodir ao entrar em contato com o tecido fino dopado que cobria as asas dos biplanos da época. O estilhaço resultante rasgaria a asa, causando perda de controle.

A necessidade de fornecer à Frota um novo canhão antiaéreo tornou-se evidente no final da década de 1920 em resposta à crescente ameaça representada pelo bombardeio de mergulho. No início de 1929, vários oficiais de alto escalão estavam cada vez mais preocupados com essa nova forma de ataque. O problema da defesa contra o bombardeiro de mergulho foi articulado pelo diretor de Treinamento da Frota, Contra-Almirante Luke McNamee. “Mesmo que o fogo defensivo comece o mais cedo possível”, escreveu ele em um memorando endereçado ao chefe de Operações Navais, “. . . apenas cerca de 30 segundos de tempo real de disparo estão disponíveis para entrar nos aviões de ataque e danificá-los o suficiente para evitar que o ataque seja concluído. ” Nenhuma das armas antiaéreas então disponíveis - a metralhadora calibre .50, a arma antiaérea de 3 polegadas e a arma de duplo propósito de 5 polegadas / 25 calibre - foi projetada para esse propósito.

Uma proposta apresentada pelo Bureau of Ordnance (BuOrd), que estava estudando várias armas para conter o bombardeiro de mergulho, pedia um canhão de cano múltiplo de 1,1 polegadas disparando um projétil explosivo equipado com um fusível supersensível que detonaria com o contato. O almirante McNamee recomendou que o desenvolvimento desta arma fosse empurrado e “uma arma deste tipo seja aperfeiçoada e entregue ao serviço conforme seja possível”.

Embora BuOrd reconhecesse a necessidade urgente de uma nova arma para combater os bombardeiros de mergulho, as opiniões variavam dentro do bureau sobre qual calibre de munição seria o mais eficaz. Assim, o bureau começou a conduzir testes de tiro frente a frente usando munições de calibre .30, calibre .50 e 1,1 polegadas contra aeronaves obsoletas montadas estaticamente no Naval Proving Ground em Dahlgren, Virgínia. Os resultados mostraram que, embora as balas calibre .30 fossem capazes de desativar um motor, elas seriam ineficazes para impedir que um bombardeiro de mergulho empurrasse seu ataque depois de iniciado. O calibre .50 deu uma excelente exibição - em muitos casos, seus projéteis pesados ​​penetraram através do bloco do motor até a posição do piloto - mas o impacto de uma bala calibre .50 provavelmente não causaria a perda de controle do avião, a menos que o piloto estava machucado.

A perda total de controle foi o único dano que vale a pena considerar, pois foi o único golpe que impediria um bombardeiro de mergulho de completar seu ataque. Assim, a agência preferia o canhão de 1,1 polegada e seu projétil explosivo, que provavelmente causaria a perda de controle se atingisse a asa de um avião. O volume de fogo do canhão de 1,1 polegadas, no entanto, era consideravelmente menor do que o calibre .50 para ter o mesmo volume, o de 1,1 polegadas precisaria ser instalado em uma montagem quádrupla. Tal montagem seria muito mais pesada do que o calibre .50, ocuparia mais espaço no convés e seria consideravelmente mais cara.

Na análise final, os especialistas em artilharia da BuOrd concluíram que, devido ao pequeno tamanho do alvo de um bombardeiro de mergulho, fornecer “uma arma de maior destrutividade do que [poderia] ser entregue por um projétil sólido [calibre .50]” era essencial. A recomendação deles convenceu o chefe do bureau, contra-almirante William D. Leahy, a prosseguir com o desenvolvimento do canhão mecânico de 1,1 polegada e sua montagem quádrupla.

O trabalho com a nova arma progrediu lentamente devido às restrições econômicas da Grande Depressão impostas à Marinha. Os testes no campo de tiro em Dahlgren não começaram até março de 1931. Demorou mais três anos para resolver todas as dificuldades de engenharia encontradas no projeto do suporte motorizado, uma peça complicada de maquinário que possuía duas características incomuns para impedir o mergulho -bomber ameaça. A montagem elevou os canos da arma além dos 90 graus normais e tinha um mecanismo transversal no plano dos quatro canos que permitia que a mira da arma fosse ajustada em ângulos de tiro muito altos.

A munição foi colocada em cada um dos quatro canhões refrigerados a água de cartuchos de sete tiros inseridos em berços acima de cada arma. Os berços continham dois carregadores: um em posição de disparo e outro em prontidão. Quando o primeiro carregador foi esvaziado, ele foi automaticamente liberado, permitindo que o segundo carregador caísse no lugar. Caixas de cartucho vazias foram ejetadas de uma carcaça de culatra sob o carregador.

Os testes de disparo dos primeiros suportes quádruplos de canhão de 1,1 polegadas entregues à Frota foram conduzidos pelos destróieres Phelps (DD-360) e Clark (DD-361) na primavera de 1937 e revelou vários problemas inesperados. Os artilheiros a bordo de ambas as naves reclamaram de vibração e fumaça que prejudicaram sua capacidade de mirar o alvo. o ClarkAs equipes de arma de fogo "não dominaram o ajuste adequado da mola de recuo", o que fez com que a arma emperrasse, um problema que afetaria a arma ao longo de sua vida útil. As equipes de armas no Phelps foram capazes de superar este “problema de paralisação”.

Ao longo do próximo ano, o navio-alvo Utah (AG-16), que recebeu uma das primeiras instalações do canhão quádruplo de 1,1 polegadas, realizou um esforço intensivo para desenvolver um meio prático e eficaz de controle de fogo que superasse o problema de mira. A vibração e a fumaça continuaram a ser problemas, interferindo no controle do fogo e causando um sério obstáculo às manchas. A vibração era tão forte, escreveu o UtahPara o oficial comandante, que “Começando com a primeira salva, os atiradores são empurrados em seus assentos, recebendo choques corporais contínuos. Ao mesmo tempo, as imagens começam a vibrar descontroladamente. Isso, em conjunto com a fumaça e a explosão, constitui uma grande dificuldade de avistamento. ”

Para superar este problema, BuOrd, com a ajuda do Utah, projetou um diretor de controle remoto - o Mark 44 - para o canhão quádruplo de 1,1 polegadas que forneceria ajustes no trem e nas elevações. 2 Infelizmente, as entregas do diretor não começaram até os últimos meses de 1941, de modo que a maioria dos navios da Marinha - incluindo o Lexington (CV-2) e Empreendimento (CV-6) - entrou na guerra sem esta peça essencial de equipamento.

Em serviço, as tripulações dos canhões acharam o canhão de 1,1 polegadas difícil de manter e sujeito a falhas. A arma e o suporte sofreram vários problemas, incluindo a tendência de superaquecer e emperrar depois de algumas rodadas conforme a arma esquentava. Funcionava bem se mantida adequadamente, mas a manutenção era um pesadelo, especialmente para os novos recrutas. Uma fonte observou que a arma exigia os serviços de um companheiro de artilheiro de primeira classe apenas para mantê-la disparando. Walter Becker, que serviu no Clark, lembrou que durante o LexingtonNa incursão abortada de fevereiro de 1942 em Rabaul, um capitão armado tentou manter seus 1,1 polegadas indo com um martelo de madeira e um uso liberal de palavrões.

A munição da arma também era problemática. O fusível no projétil de alto explosivo continha um pequeno retardo que teoricamente permitia que o projétil penetrasse na pele de uma aeronave antes de detonar. Mas o fusível altamente sensível, que armava ao disparar, não tinha dispositivo de segurança. Explosões prematuras dentro do próprio cano da arma durante a prática de tiro não eram incomuns. Desnecessário dizer que isso causou grande desconforto tanto para a tripulação quanto para os espectadores. De acordo com um relato, o oficial de artilharia antiaérea do cruzador pesado São Francisco (CA-38) recusou-se a realizar treinamento de fogo real porque colocava em risco a vida dos artilheiros.

Enquanto os canhões de 1,1 polegada prestavam um serviço valioso nas primeiras batalhas do Pacífico, os Bofors de 40 mm os substituíram na maioria dos navios de guerra da Marinha. Escoltas de destruidor, usadas principalmente para caçar submarinos & # 8211não proteger contra ataques aéreos & # 8211 continuaram a fazer o vencimento com canhões 1.1, incluindo estes a bordo do USS FRANCIS M. ROBINSON (DE-220). (Arquivos Nacionais)


Dados e estatísticas do censo dos EUA

O United States Census Bureau fornece dados sobre o povo e a economia da nação. A cada 10 anos, ele realiza o Censo Populacional e Habitacional, no qual todos os residentes nos Estados Unidos são contados. A agência também coleta dados por meio de mais de 100 outras pesquisas de domicílios e empresas a cada um a cinco anos. Você pode explorar os resultados das pesquisas ou encontrar fatos rápidos populares.

O Censo de 2020 terminou em outubro de 2020. Dê uma olhada no processo.

Como os dados do censo são usados?

Suas respostas podem ajudar a determinar quanto financiamento sua comunidade local receberá para serviços públicos. Os dados populacionais do censo são usados ​​para dividir as cadeiras na Câmara dos Representantes dos EUA entre os 50 estados. Também pode ser usado para traçar limites para distritos legislativos estaduais e escolas.

Além de usar os dados do censo para o benefício dos serviços públicos, você também pode usá-los para pesquisas genealógicas. Para proteger a privacidade das pessoas que respondem ao Censo dos EUA, todos os registros são mantidos em sigilo por 72 anos. Descubra quais informações genealógicas estão disponíveis e onde você pode acessá-las.

Que estatísticas posso obter do censo?

Obtenha informações demográficas e populacionais sobre o país, estados individuais e muito mais:

Amplie e classifique os dados do censo com mapas interativos.

Veja as estimativas da população dos EUA e do mundo mudando ao vivo com o Population Clock.

Visualize dados de idade e sexo para entender as mudanças populacionais ao longo do tempo.

Como posso ver os resultados do censo?

Revise todas as pesquisas e seus dados conduzidos pelo Bureau:

Eu tenho que responder ao censo?

Por lei, todos são obrigados a ser contados no censo. Se você não responder, o U.S. Census Bureau entrará em contato com você pessoalmente visitando sua casa.


História do U-111 - História

As principais admissões de refugiados ocorreram fora do sistema de cotas de origem nacional durante os anos 1950. O Refugee Relief Act (RRA) de 7 de agosto de 1953, e as emendas de agosto de 1954, autorizou a admissão de 214.000 refugiados da Europa dilacerada pela guerra e fugitivos de países ocupados pelos comunistas. Trinta por cento das admissões durante a vigência da Lei eram italianas, seguidas por alemães, iugoslavos e gregos.

O RRA se originou como um projeto de lei do governo e combinou a preocupação humanitária com os refugiados e fugitivos com considerações políticas internacionais. Citando a carta do presidente Eisenhower que acompanhava o projeto de lei:

"Esses refugiados, fugitivos e pessoas em dificuldades agora constituem uma ameaça econômica e política de magnitude constantemente crescente. Eles olham para a tradicional preocupação humanitária americana com os oprimidos. Considerações políticas internacionais também são fatores envolvidos. Devemos tomar medidas razoáveis ​​para ajudá-los pessoas na medida em que compartilhamos a obrigação do mundo livre. "

Em particular, a inclusão da categoria de fugitivos da dominação comunista nesta e na subsequente legislação sobre refugiados refletia as preocupações deste período da Guerra Fria. Essa preocupação também foi um fator importante na admissão de refugiados da revolução húngara malsucedida de outubro de 1956. Um total de 38.000 refugiados húngaros foram finalmente admitidos nos Estados Unidos, 6.130 com vistos RRA e o restante sob a cláusula de liberdade condicional da Imigração e Lei da Nacionalidade (INA).

A Lei de 11 de setembro de 1957, às vezes referida como Lei de Refugiados-Fugitivos, previa a admissão de certos estrangeiros que eram elegíveis nos termos da Lei de Socorro a Refugiados, bem como refugiados-fugitivos, definidos como pessoas que fogem de perseguição em Países comunistas ou países do Oriente Médio. Esta foi a base para a definição de refugiado incorporado no INA de 1965 a 1980. Um total de 29.000 inscritos sob as disposições temporárias de 1957 para refugiados, liderados por húngaros, coreanos, iugoslavos e chineses.

Durante a década de 1960, refugiados da perseguição em países dominados pelos comunistas no Hemisfério Oriental e de países no Oriente Médio continuaram a ser admitidos, primeiro sob a Lei do Compartilhamento Justo, promulgada em 14 de julho de 1960, e posteriormente sob o INA. Cerca de 19.700 refugiados entraram ao abrigo da legislação de 1960. Seu objetivo principal era permitir que os Estados Unidos participassem de um esforço internacional para fechar os campos de refugiados que estavam em operação na Europa desde o fim da Segunda Guerra Mundial. A participação dos EUA foi limitada a um quarto do número total reassentado.

Os refugiados cubanos começaram a entrar nos Estados Unidos com a queda do governo Batista e a subseqüente tomada comunista em 1959, e continuaram ao longo da década de 1960 e, em menor número, durante a década de 1970. Aproximadamente 700.000 refugiados cubanos entraram nos Estados Unidos antes de um novo influxo que começou em abril de 1980. Os Estados Unidos aceitaram os cubanos como refugiados do comunismo por uma variedade de meios legais.

As Emendas INA de 1965 e suas consequências

As emendas de outubro de 1965 à Lei de Imigração e Nacionalidade (INA) de 1952 revogaram o sistema de cotas de origem nacional e representaram a revisão mais abrangente da política de imigração nos Estados Unidos desde a Primeira Lei de Cota de 1921. No lugar da nacionalidade e considerações étnicas , as emendas do INA (PL 89 236 79 Estat. 911) substituíram um sistema baseado principalmente na reunificação das famílias e habilidades necessárias.

As circunstâncias que levaram a essa grande mudança na política em 1965 foram uma combinação complexa de mudanças nas percepções e valores públicos, política e compromisso legislativo. Pode-se argumentar que a legislação de imigração de 1965 foi tanto um produto de meados da década de 1960 e do 89º Congresso fortemente democrata, que também produziu uma importante legislação de direitos civis, quanto a Lei de 1952 foi um produto do período da Guerra Fria no início dos anos 1950 .

As emendas de 1965 adotaram um teto anual para a imigração no hemisfério oriental de 170.000 e um limite de 20.000 por país. Dentro dessas restrições, os vistos de imigrantes foram distribuídos de acordo com um sistema de preferência de sete categorias, priorizando a reunificação familiar, atraindo as habilidades necessárias e refugiados. A lei de 1965 também estabelecia que, a partir de 1º de julho de 1968, a imigração do hemisfério ocidental seria limitada por um teto anual de 120.000 sem limites por país ou sistema de preferência.

As Emendas da INA de 1976 (P.L. 94-571 90 Stat. 2703) estenderam ao Hemisfério Ocidental o limite de 20.000 por país e uma versão ligeiramente modificada do sistema de preferência de sete categorias. A legislação promulgada em 1978 (P.L. 95 412 92 Stat. 907) combinou os tetos separados em um único teto mundial de 290.000 com um único sistema de preferência. O Refugee Act de 1980 (P.L. 96 212 94 Stat. 102) eliminou os refugiados como uma categoria do sistema de preferência e estabeleceu o teto mundial em 270.000, excluindo os refugiados.

Desde 1965, a principal fonte de imigração para os Estados Unidos mudou da Europa para a América Latina e a Ásia, revertendo a tendência desde a fundação da nação. De acordo com o Immigration and Naturalization Service (INS), a Europa foi responsável por 50 por cento da imigração dos EUA durante a década fiscal de 1955 a 1964, seguida pela América do Norte com 35 por cento e a Ásia com 8 por cento. No ano fiscal de 1988, a Ásia atingiu o nível mais alto com 41%, seguida pela América do Norte com 39% e Europa com 10%.Em ordem, os países com mais de 20.000 imigrantes no ano fiscal de 1988 foram México, Filipinas, Haiti, Coréia, Índia, China continental, República Dominicana, Vietnã e Jamaica.

Esses números refletem uma mudança na acessibilidade e nas condições nos países de origem. Por exemplo, a imigração asiática, que era severamente limitada antes das emendas de 1965, subseqüentemente foi aumentada pelo grande número de refugiados indochineses que se ajustaram ao status de imigrante fora dos limites numéricos. Por outro lado, a imigração irlandesa caiu de 6.307 no ano fiscal de 1964 para 1.839 no ano fiscal de 1986, com 734 entrando no sistema de preferência e a maioria entrando como parente imediato de cidadãos dos EUA. A Irlanda foi fortemente favorecida pelo sistema de cotas de origens nacionais.

Nos anos mais recentes, a tendência acima continuou em grande parte. De acordo com o Pew Hispanic: “As regiões de origem das populações de imigrantes que residem nos EUA mudaram dramaticamente desde a aprovação da Lei de Imigração e Naturalização de 1965. Em 1960, 84% dos imigrantes que viviam nos EUA nasceram na Europa ou Canadá, enquanto apenas 6% eram do México, 3,8% do Sul e Leste da Ásia, 3,5% do resto da América Latina e 2,7% de outras áreas. As origens dos imigrantes agora [em 2016] diferem drasticamente, com os imigrantes europeus e canadenses representando apenas uma pequena parcela da população nascida no exterior (13,2%) em 2016. Asiáticos do Sul e do Leste (26,9%), mexicanos (26,5%) e outros latino-americanos (24,5%) representam, cada um, cerca de um quarto da população imigrante dos EUA, seguidos por 8,9% que nasceram em outra região. ”

Os proponentes do INA de 1965 asseguraram repetidamente à sociedade americana que a emenda estava longe de ser radical. Por exemplo, o senador Edward Kennedy (D-Massachusetts) afirmou:

Primeiro, nossas cidades não serão inundadas com um milhão de imigrantes anualmente. De acordo com o projeto de lei proposto, o nível atual de imigração permanece substancialmente o mesmo (.). Em segundo lugar, a mistura étnica deste país não será perturbada (.). Ao contrário das acusações de alguns setores, [o projeto de lei] não inundará a América com imigrantes de qualquer país ou área, ou das nações mais populosas e carentes da África e da Ásia (.). Em última análise, não se espera que o padrão étnico de imigração sob a medida proposta mude tão drasticamente como os críticos parecem pensar.

Na realidade, todas as garantias oferecidas por Kennedy foram provadas erradas por eventos subsequentes. Como disse o presidente da FAIR, Dan Stein, em seu quinquagésimo aniversário:

Por quaisquer padrões objetivos, a Lei de Imigração de 1965 teria que ser considerada um fracasso abjeto, e cabe aos líderes de hoje corrigir uma lei que produziu inúmeras consequências não intencionais que ameaçam o futuro de nossa nação (...). A lei resultou em um crescimento populacional imprudente, dependência crescente do sistema de bem-estar social e sobrecarregou a capacidade do país de assimilar os imigrantes e seus filhos na corrente social, cultural e econômica dominante.

História da imigração: dos anos 1970 até o presente

Década de 1970 a 1990: Questões de Imigração, Revisão e Revisão

Os padrões de imigração e as considerações políticas relacionadas a ela na década de 1970 se assemelhavam em alguns aspectos aos da década de 1950, após a promulgação da Lei de Imigração e Nacionalidade. Em ambas as décadas, a entrada de estrangeiros fora das disposições da lei básica - tanto ilegalmente como estrangeiros sem documentos, quanto legalmente como refugiados, foi cada vez mais o padrão dominante na imigração e a base para as principais questões enfrentadas pelo Congresso. A resposta legislativa à questão dos refugiados em 1980 e dos estrangeiros sem documentos em 1986 foi seguida em 1987 por uma mudança na atenção do Congresso para a imigração legal.

O relatório de 1981 da Comissão Nacional de Seleção de Política de Imigração e Refugiados contribuiu para a revisão do Congresso das questões de imigração. A Comissão de dezesseis membros foi criada pela legislação promulgada em 1978 para estudar e avaliar as leis, políticas e procedimentos de imigração e refugiados. Sua conclusão básica era que a imigração controlada era e continuava sendo do interesse nacional, e isso fundamentava muitas de suas recomendações. As recomendações da Comissão foram resumidas pelo Presidente Theodore Hesburgh em sua introdução:

"Recomendamos fechar a porta dos fundos para a migração ilegal e sem documentos, abrir a porta da frente um pouco mais para acomodar a migração legal no interesse deste país, definir nossos objetivos de imigração de forma clara e fornecer uma estrutura para implementá-los de forma eficaz e estabelecer procedimentos que levará a uma adjudicação e administração justas e eficientes das leis de imigração dos EUA. "

Refugiados e a Lei dos Refugiados de 1980

Entre 1975 e 1980, refugiados e questões relacionadas a refugiados dominaram a preocupação do Congresso com a imigração mais do que desde os anos após a Segunda Guerra Mundial. Começando com a queda do Vietnã e do Camboja para os comunistas em abril de 1975, este período de cinco anos viu a admissão de mais de 400.000 refugiados indochineses, a promulgação de grandes emendas à Lei de Imigração e Nacionalidade na forma da Lei de Refugiados de 1980 e o êxodo de Mariel Harbour, Cuba, para o sul da Flórida.

A legislação de refugiados de 1980 foi promulgada em parte em resposta à crescente frustração do Congresso com a dificuldade de lidar com o fluxo contínuo de refugiados da Indochina em larga escala sob os mecanismos ad hoc de admissão e reassentamento de refugiados existentes. No final da década de 1970, chegou-se a um consenso de que era necessária uma abordagem mais coerente e equitativa para a admissão e reassentamento de refugiados. O resultado foram as emendas à Lei de Imigração e Nacionalidade contidas na Lei de Refugiados de 1980, promulgada em 17 de março de 1980 (P.L. 96-212 94 Stat. 102).

A Lei dos Refugiados revogou as limitações que anteriormente favoreciam os refugiados que fugiam do comunismo ou de países do Oriente Médio e redefiniu refugiado para se adequar à definição usada no Protocolo e Convenção das Nações Unidas sobre o Estatuto dos Refugiados. O termo refugiado é agora definido pela Lei de Imigração e Nacionalidade como uma pessoa que não deseja ou é incapaz de retornar ao seu país de nacionalidade ou residência habitual devido à perseguição ou um temor bem fundamentado de perseguição por motivo de raça, religião, nacionalidade, pertença a um determinado grupo social ou opinião política. As emendas de 1980 previam tanto um fluxo regular quanto a admissão de emergência de refugiados, após consulta prescrita pelo legislador ao Congresso. Além disso, a lei autorizou assistência federal para o reassentamento de refugiados.

Pouco depois da promulgação da Lei dos Refugiados de 1980, um grande número de cubanos entrou nos Estados Unidos pelo sul da Flórida, totalizando cerca de 125.000, junto com um número cada vez menor de haitianos. A administração Carter não estava disposta a classificar nenhum dos grupos como refugiados e nenhuma ação foi tomada em relação à legislação especial solicitada pela administração. A partir de 1984, a administração Reagan ajustou a maioria dos cubanos ao status de residente permanente legal sob o título de P.L. 89 732, legislação de 1966 promulgada em resposta à situação dos refugiados cubanos na década de 1960. No entanto, a situação dos participantes cubanos / haitianos não foi resolvida definitivamente até a promulgação da Lei de Reforma e Controle da Imigração de 1986, que incluiu disposições especiais de legalização.

Imigração ilegal e IRCA de 1986

A legislação de imigração com foco na imigração ilegal foi considerada e aprovada pelo 99º Congresso, e promulgada como a Lei de Reforma e Controle de Imigração (IRCA) de 1986 P.L. 99-603 (6 de novembro de 1986 100 Stat. 3359), consiste principalmente em emendas à Lei de Imigração e Nacionalidade (INA) de 1952, emendada (8 U.S.C. 1101 e seguintes).

A reforma da lei relativa ao controle da imigração ilegal vinha sendo considerada há 15 anos, ou seja, desde o início dos anos 1970. A legislação de 1986 marcou o ápice dos esforços bipartidários tanto do Congresso quanto do Executivo sob quatro presidentes. Como uma indicação da magnitude crescente do problema, a apreensão anual de estrangeiros indocumentados pelo Serviço de Imigração e Naturalização (INS) do Departamento de Justiça aumentou de 505.949 em 1972, o primeiro ano em que a legislação destinada a controlar a imigração ilegal recebeu ação da Câmara, para 1.767.400 em 1986. Em 1987, após a adoção do IRCA, as apreensões do INS caíram em um terço, para 1.190.488.

A perspectiva de emprego nos Estados Unidos é um ímã econômico que atrai estrangeiros para cá ilegalmente. O principal recurso legislativo proposto no passado, e incluído na nova lei, são sanções ao empregador ou penalidades para empregadores que contratem intencionalmente estrangeiros não autorizados a trabalhar nos Estados Unidos. A fim de evitar um grande problema de aplicação da lei lidando com estrangeiros que estabeleceram raízes aqui antes da mudança na política, um programa de legalização foi estabelecido que fornecia status legal para estrangeiros elegíveis que estivessem aqui ilegalmente desde antes de 1982. Em segundo lugar, a legislação buscada para responder à aparente forte dependência da agricultura sazonal de trabalhadores ilegais, criando um programa de trabalhador agrícola especial de 7 anos e simplificando o programa de trabalhador temporário H-2 previamente existente para agilizar a disponibilidade de trabalhadores estrangeiros e fornecer proteções legais para os EUA e trabalho estrangeiro.

No geral, a anistia de 1986 foi um fracasso porque o número de estrangeiros ilegais nos Estados Unidos quadruplicou desde então: de aproximadamente 3 milhões anistiados em 1986 para aproximadamente 12,5 milhões em 2017.

Imigração Legal e Lei de Imigração de 1990

Após a promulgação da Lei de Reforma e Controle da Imigração de 1986 (IRCA), que adotou uma grande mudança na dissuasão contra a imigração ilegal, a atenção do Congresso se voltou para a imigração legal, incluindo o sistema adotado em 1965 de limites numéricos para a imigração permanente. Este foi um problema por vários motivos. A preocupação havia surgido com o maior número de imigrantes admitidos com base no reagrupamento familiar, em comparação com o número de imigrantes independentes não familiares, e com o número limitado de vistos disponíveis para certos países sob o sistema de preferência. Também houve preocupação com as crescentes listas de espera de visto (acúmulos) sob o sistema de preferência existente e sobre a admissão de parentes imediatos de cidadãos norte-americanos fora dos limites numéricos.

A legislação principal que trata dessas questões foi aprovada pelo Senado e apresentada na Câmara no 100º Congresso (1987 a 1988). No entanto, apenas uma legislação temporária abordando preocupações limitadas foi aprovada em ambos, deixando a consideração de uma revisão em grande escala da imigração legal para o 101º Congresso.

A Lei de Imigração de 1990 (IMMACT90) foi transformada em lei como P.L. 101-649 pelo presidente Bush em 29 de novembro de 1990. Constituiu uma revisão importante da Lei de Imigração e Nacionalidade, que permaneceu a lei básica de imigração. Seu foco principal eram os limites numéricos e o sistema de preferência que regulava a imigração legal permanente. Além da imigração legal, a lei de oito títulos tratou de muitos outros aspectos da lei de imigração, desde não imigrantes a estrangeiros criminosos e naturalização.

As mudanças na imigração legal incluíram um aumento na imigração total sob um limite flexível geral, um aumento na imigração anual baseada no emprego de 54.000 para 140.000 e uma provisão permanente para a admissão de "imigrantes diversificados" de países "sub-representados". O novo sistema previa um nível anual permanente de aproximadamente 700.000 durante os anos fiscais de 1992 a 1994. Os refugiados eram o único grupo importante de estrangeiros não incluídos. A lei estabeleceu um sistema de preferência de três vias para imigrantes patrocinados por famílias, baseados em empregos e diversificados. Além disso, a lei alterou significativamente as categorias de não-imigrantes relacionados ao trabalho para admissão temporária.

IMMACT90 (P.L. 101-649) abordou uma série de outras questões. Forneceu aos salvadorenhos indocumentados um status de proteção temporária por um período limitado de tempo e emendou a Lei de Imigração e Nacionalidade para autorizar o Procurador-Geral a conceder status de proteção temporária a cidadãos de países designados sujeitos a conflitos armados ou desastres naturais. Também autorizou uma estadia temporária de deportação e autorização de trabalho para membros da família imediata elegíveis dos estrangeiros legalizados pela IRCA e disponibilizou 55.000 vistos adicionais para eles anualmente durante os anos fiscais de 1992 a 1994.

Em resposta às críticas às sanções do empregador, a IMMACT90 expandiu as disposições antidiscriminação do IRCA e aumentou as penalidades por discriminação ilegal. Revisou significativamente os fundamentos políticos e ideológicos para exclusão e deportação, que haviam sido controversos desde sua promulgação em 1952.

Lei de Reforma da Imigração Ilegal e Responsabilidade do Imigrante (1996)

Fundo

A Lei de Reforma da Imigração Ilegal e Responsabilidade do Imigrante (IIRAIRA), promulgada em 1996, resultou do processo de deliberação sobre as recomendações da Comissão dos Estados Unidos sobre a Reforma da Imigração estabelecida pelo Presidente Clinton e pelo Congresso para examinar as questões de imigração legal e ilegal.

A Comissão foi presidida até sua morte prematura em 1996 pelo Exmo. Barbara C. Jordan, que serviu na Câmara dos Representantes dos EUA (D-TX) 1973-79, e foi professora na Univ. of Texas-Austin 1979-96. Os membros da Comissão incluíam renomados especialistas em direito e história da imigração e outros com experiência em política e negócios nacionais.

Depois de um longo e árduo esforço para desenvolver uma legislação bipartidária que lida com a reforma da imigração legal e ilegal, o Congresso estreitou seu foco nas disposições sobre imigração ilegal com a promessa de muitos de que retornariam em breve ao esforço para reformar a imigração legal.

“A credibilidade na política de imigração pode se resumir em uma frase: quem deveria entrar, entrar quem deveria ser mantido fora, será mantido fora e quem não deveria estar terá que sair. Para que o sistema tenha credibilidade , as pessoas realmente têm que ser deportadas no final do processo. "
(Barbara Jordan, 24 de fevereiro de 1995 Testemunho ao Subcomitê de Imigração da Câmara)

As disposições da IIRAIRA visavam adotar penalidades mais severas contra a imigração ilegal, agilizando o processo de deportação (remoção) ao reduzir o interminável processo de apelação legal que era usado por advogados de imigração para manter seus clientes nos Estados Unidos até encontrarem um juiz solidário quem seria a grande suspensão da deportação (cancelamento da remoção). Outras disposições de endurecimento adotadas no mesmo ano visam restringir a capacidade dos terroristas de usar o processo de imigração para entrar e operar nos Estados Unidos e para restringir o uso de benefícios do bem-estar público por novos imigrantes, contrário à intenção da lei de imigração.

“Para que nossa política de imigração faça sentido, é necessário fazer distinções entre quem obedece a lei e quem a infringe”.
(Barbara Jordan, endereço para United We Stand, America Conference, Dallas, TX, 12 de agosto de 1995)


Conteúdo

Havia cerca de 380 U-boats comissionados no Kaiserliche Marine nos anos anteriores e durante a Primeira Guerra Mundial. Embora os primeiros quatro submarinos alemães -U-1, U-2, U-3, U-4- foram comissionados antes de 1910, todos os quatro serviram como treinamento durante a guerra. Os submarinos alemães usados ​​durante a Primeira Guerra Mundial foram divididos em três séries. o você a designação era geralmente reservada para submarinos de torpedo de ataque oceânicos. o UB designação foi usada para U-boats de ataque costeiro, enquanto o UC a designação foi reservada para U-boats de minelaying costeiros.

U-boats [editar] editar fonte]

U-boats projetados principalmente para serviços em águas profundas foram designados com um você prefixo e numerado até 167.


História do U-111 - História

1. Códigos de data
2. Códigos Nib
3. Marcas e outras marcações

4. Códigos de condição
5. Códigos de abreviatura

1. Códigos de data em canetas Parker

No meio 1934 Parker começou a marcar a maioria das canetas e lápis com um código de data, tanto o barril quanto as pontas foram marcados, mas a falta de um código de data não significa necessariamente que a caneta foi feita antes de 1935, já que muitas marcas se desgastaram com o uso. Os primeiros códigos de data, encontrados por exemplo no Vacumatics, consistem em dois dígitos, o primeiro denotando o trimestre de produção, o segundo denotando o ano de produção. Portanto, uma marca de & quot47 & quot em uma caneta de 1930 indica que a caneta foi produzida no quarto trimestre de 1937, não em 1947, o que é um equívoco comum.


No segundo trimestre de 1938 no entanto, este sistema foi alterado para economizar tempo de produção, e um novo código de data, usando um sistema de pontos, foi adotado. O selo inicialmente tinha três pontos e para cada quarto um ponto era arquivado, não deixando nenhum para o quarto trimestre. Como a produção estava sobreposta, existem exemplos com a impressão 28 ou 0,8. para o segundo trimestre de 1938. Além disso, como esse sistema de codificação se estendeu por mais de uma década, uma caneta marcada com 38 poderia ser produzida no terceiro trimestre em 1938 ou 1948.

No 1950 um novo sistema para a codificação de datas foi introduzido onde os dois dígitos indicavam apenas o ano, não o trimestre, portanto, & quot50 & quot significa feito em 1950, este sistema foi usado nos EUA até 1955 e no Canadá mais alguns anos ..

Supõe-se que Parker começou a marcar algumas de suas canetas nas faixas de acabamento ou tampa para permitir a datação em 1970. Usando as palavras & quotCaneta de qualidade& quot, uma letra por ano, seguida por um marcador de um quarto, permitindo namoro em um período de dez anos.
Até agora, as primeiras canetas com código de data encontradas tinham o código NL para 1979, e todas essas canetas foram feitas nos EUA. Possivelmente antecipando o 1980 início oficial da codificação de data na França e no Reino Unido, isso poderia ter levado à presunção de que a data realmente começou em 1970, mas a prova disso ainda não foi encontrada.
O marcador do quarto mudou em 1988 de E, C, L, I a III, II, I ou nenhum (último trimestre) conforme tabela abaixo.
No 2000 o código novamente sofreu uma pequena mudança quando o trimestre mudou de lado com o ano e havia um ponto entre eles & quotQ.III & quot
No entanto, existem inconsistências, como pontos ausentes e códigos de um quarto que aparecem no lado errado do código do ano.

Ano Q1 Q2 Q3 Q4
---------------------------------
1979 - - - NL NI A codificação de data começa nos EUA

1980 - QE QC QL QI A codificação de data começa no Reino Unido e na França
1981 - UE UC UL UI
1982 - AE AC AL AI
1983 - LE LC LL LI
1984 - IE IC IL II
1985 - TE TC TL TI
1986 - YE YC YL YI

1987 - PE PC PL PI
1988 - IIIE IIE IE E (alteração)
1989 - IIIN IIN EM N

1990 - IIIQ IIQ IQ Q
1991 - IIIU IIU IU U
1992 - IIIA IIA IA A
1993 - IIIL IIL IL L
1994 - IIII III II I
1995 - IIIT IIT IT T
1996 - IIIY IIY IY Y

1997 - IIIP IIP IP P
1998 - IIIE IIE IE E
1999 - IIIN IIN EM N

2000 - Q.III Q.II Q.I Q (mudança)
2001 - U.III U.II U.I U
2002 - A.III A.II A.I A
2003 - L.III L.II L.I L
2004 - I.III I.II I.I I
2005 - T.III T.II T.I T
2006 - Y.III Y.II Y.I Y

2007 - P.III P.II P.I P
2008 - E.III E.II E.I E
2009 - N.III N.II N.I N


2010 - Q.III Q.II Q.I Q
2011 - U.III U.II U.I U

2. Códigos Nib

(existem discrepâncias entre os modelos)

62 Contador - Produz linhas muito finas com toque delicado.
Geralmente usado para trabalho de figura 14k

63 Extra Fino - Para escrita em linhas finas com um leve toque 14k

64 Ponto fino Steno-A adaptado para uso em taquigrafia e escrita rápida 14k

65 Excelente para redação geral e anotações. Moderado
a pressão produziu uma linha tênue de 14k

66 Médio-melhor para pressão média de escrita, largura média de linha,
uso geral geral 14k

67 Largo-A mais pesado, ponto arredondado para linhas largas 14k

68 Extremamente largo - Um grande ponto arredondado. Excelente para linhas pesadas e
negrito assinaturas 14k

69 Ponto fino Stub-A para escrita e impressão com sombras delicadas.
Produz linhas pesadas no traço horizontal, linhas finas na vertical
curso 14k

70 Medium Stub - um ponto plano mais pesado para escrita e impressão sombreada.
Projetado para pessoas que seguram a caneta com muito pouca inclinação 14k

72 Ponto de esboço mais largo Extra Broad Stub-Parkers. Para muito pesado
linhas no traço para baixo e linhas médias no traço lateral 14k

74 Fino Oblíquo Itálico mão direita 18k

75 Oblíquo direito médio 14k

75 Itálico médio oblíquo mão direita 18k

76 Ampla Oblíqua Itálico direita 18k

77 Itálico fino oblíquo esquerdo 18k

78 Itálico médio oblíquo, mão esquerda 18k

79 Ampla Oblíqua Itálico mão esquerda 18k

79 Oblíquo esquerdo médio - Para quem inclina a caneta ao escrever. Oblíquo direito tem a maior superfície no lado direito do ponto. Left Oblique tem inclinação oposta para escritores canhotos 14k

80 Ponta da agulha 18k
81
82
83
84
85 Extra Amplo 18k
86 Extra Extra Largo 18k
87 Oblíquo fino mão direita 18k
88 Oblíquo médio mão direita 18k
88 Executivo extra amplo desenvolvido para pessoas que gostam de escrever com ousadia e rapidez e querem um toque especial em suas assinaturas 14k

89 Ampla Oblíqua direita 18k
90
91 Extra largo oblíquo direito 18k
92 Extra Extra Largo Oblíquo mão direita 18k
93 Oblíquo médio, mão esquerda 18k
94 Itálico médio 14k
95 Broad Italic 14k
96 Oblíquo fino mão esquerda 18k

97 Itálico fino 14k
97 Amplo Oblíquo esquerdo 18k

98 Itálico fino 14k
98 Itálico pesado - projetado expressamente para escrita à mão em itálico. Pontos planos e com bordas largas geralmente colocados no papel em um ângulo de 45 graus 14k

Também
X Extra Fino
F Multar
M Médio
B Largo

FI Caligráfico Fino
MI Caligráfico Médio
BI Caligráfico amplo

3. Marcas e outras marcações

Empresa Parker Pen, EUA

Parker Pens. ltd, Reino Unido

Parker Pen, França

Parker Pen Company, Canadá
PPCO

Ouro sólido (K ou CT para quilates / quilates)

24K ou 1000 (partes de 1000)
22K ou 916
18K ou 750 o menor teor de ouro permitido na França até 1994
15K ou 625 descontinuado em 1935
14K ou 585
12K ou 500
10K ou 416 Menor conteúdo de ouro permitido nos EUA
9K ou 375 Menor conteúdo de ouro permitido no Canadá e no Reino Unido
8K ou 333 Menor conteúdo de ouro permitido na Alemanha

Marcações Parker comuns:
375
585
750
9K
14K
18K

Preenchido com ouro ou sobreposição:
Uma sólida camada de ouro, mecanicamente ligada ao latão, ou às vezes a outros materiais, com calor e pressão. Normalmente, cerca de 80-120 micrômetros de espessura. Um micrômetro é 1/1000 de milímetro. (ca. 0,000039 polegadas)
Para ser estampado em 10K, a camada deve ser igual a pelo menos 1/10 do peso total do item.
Para estampar 12K ou mais, a camada deve ser igual a pelo menos 1/20 do peso total do item.

Marcações Parker comuns:
1/10 Preenchido com ouro 12K
14K GF
1/8 14K Gold Preenchido
1/10 14K Gold Preenchido
1/10 16K Gold Filled

Ouro laminado:
O mesmo processo que o anterior, mas a folha de ouro é rolada para baixo após a colagem, o que produz uma camada mais fina de ouro, geralmente com 20-40 micrômetros de espessura.

Marcações Parker comuns:
Ouro Laminado
1/10 12ct R de ouro

Banhado a ouro:
O folheado a ouro é geralmente uma camada mais fina do que a anterior. A galvanoplastia adiciona quimicamente uma camada muito fina de ouro ao material de base. Muito mais propenso a bronca. Normalmente, menos de 10-20 micrômetros de espessura.

Dourado:
O mesmo processo anterior, mas com uma camada muito fina de ouro, geralmente com menos de 5 micrômetros de espessura.

PVD também conhecido como Dimonite G também conhecido como Fileté:
Em 1986, Parker patenteou um processo, desenvolvido em conjunto com Jamers Snyder da Universidade de Wisconsin, para depositar microcamadas de ouro e nitreto de titânio para criar o brilho do ouro, mas a durabilidade do cromo. O processo envolve a deposição física de vapor de ouro (PVD). Parker o chamou de & quotDimonite G & quot. De acordo com Parker, uma superfície microlaminada de 1,3 micrômetro tem uma "vida útil de serviço" equivalente ou superior a um revestimento de ouro de 10 micrômetros. E como a parte de ouro da microcamada pode ser tão fina quanto cerca de 0,003–0,3 micrômetro, a quantidade de ouro usada no processo é incrivelmente baixa. Mas para alcançar uma precisão visual de 93% em comparação com o revestimento de ouro tradicional, a Parker usa uma camada de 3 micrômetros, dos quais 0,4 micrômetro corresponde a ouro de 14K.

Marcações Parker comuns:
Prata de lei

Cavalo-marinho, ouro 24K

Eagle, ouro 22K

Eagle, ouro 18K

Shell, ouro 14K

Trevo, ouro 9K

Padrão, ouro abaixo de 9K, estrangeiro

Estrangeiro ou desconhecido

Prata 999 (de 1 000) Multa

Silver 925 Sterling

Silver 800

Silver Standard, abaixo de 800

4-código de condição padrão para equipamento de escrita

Este é um padrão para abreviar a descrição de canetas, seja para uso pessoal ou ao oferecer canetas para venda. O código-chave pode ser postado junto com a lista de canetas, se desejado.
Os códigos a seguir devem ser usados ​​para estabelecer uma condição geral, em vez de serem interpretados literalmente. As falhas devem sempre ser observadas, como arranhões, rachaduras, amassados, etc.


PM = Menta Prístina. Intocado, vazio. Sem marcas ou manchas de qualquer espécie. Cor nítida. Nunca preenchido. Essa condição raramente existe. Condição perfeita absoluta.

M = Mint. Condição perfeita. Sem marcas, manchas ou bronzeamento. Cor nítida e acabamento brilhante em canetas de plástico. Sem descoloração. Condição de trabalho. Essas canetas podem ser preenchidas. As canetas não cheias devem ser anotadas. As canetas NOS devem estar na condição de hortelã.

NM = Near Mint. Uma excelente caneta, mas com partes de acabamento mais opaco ou arranhões superficiais quase invisíveis. Sem latão, virtualmente uma caneta Mint, mas com pequenos sinais de uso.

VF ou EX = Muito bom ou excelente. Riscos superficiais visíveis, mas não acentuados ou partes com acabamento fosco. Arranhões mais acentuados onde a tampa vai na bunda e no corpo. Caso contrário, acabamento totalmente funcional e nítido sem latão.

FN = Ótimo. Riscos visíveis na superfície ou acabamento fosco. Sinais de desgaste na ponta ou leve descoloração da seção ou ao redor da alavanca de enchimento ou enchimento do botão. Latão leve ou pequena rachadura no lábio. Sinais claros de uso, mas ainda uma caneta melhor do que a média.

VG = muito bom. Alguns arranhões e acabamento fosco. Sinais de uso diário na ponta ou no corpo. Latão, descoloração clara. Pequenas rachaduras nos lábios ou no corpo. Anéis de tampa soltos ou anéis de corpo. Uma caneta usada em condições normais.

G = bom. Arranhões, acabamento fosco. Ponta e corpo bem usados. Latão, descoloração. Pequenos lábios ou rachaduras no corpo. Boné de luz ou desajuste de boné cego. Anéis de tampa soltos ou anéis de corpo. Pior condição do que a média, mas ainda uma caneta totalmente funcional.

F = Razoável. Riscos e marcas graves. Bronzeamento severo. Descoloração. Pequenos lábios ou rachaduras no corpo. Cap ou blind-cap desajustado. Tampa solta ou anéis do corpo. Ainda funcional ou funcional com atenção leve.

P = Fraco. Riscos e marcas graves. Svere brassing e descoloração. Rachaduras graves ou falta de peças essenciais. Tampa, carroceria ou alavanca ausente ou solta. Uma caneta de peças não funcional.


A história do cuidado infantil nos EUA

Hoje, nos Estados Unidos, a maioria das mães de crianças em idade pré-escolar e escolar trabalha fora de casa. As mães americanas inventaram muitas maneiras de cuidar dos filhos enquanto trabalham. Os nativos americanos prendiam os recém-nascidos nas tábuas do berço ou carregavam-nos em faixas de tecido As mulheres coloniais colocavam as crianças pequenas em banquinhos ou go-gins para evitar que caíssem na lareira. Os pioneiros nas planícies do meio-oeste colocaram crianças em caixas de madeira presas às vigas de seus arados. Os fazendeiros de terra do sul amarraram seus runabouts a estacas cravadas no solo na borda de seus campos. As esposas de plantadores brancos do sul observavam meninos e meninas afro-americanos brincando no quintal da cozinha enquanto suas mães trabalhavam nos campos de algodão. As mães afro-americanas cantavam para bebês brancos dormirem enquanto seus próprios filhos se consolavam. Trabalhadores migrantes protegiam crianças em tendas de bebês colocadas no meio dos campos de beterraba. Os trabalhadores da fábrica de conservas colocam as crianças para trabalhar ao lado deles, amarrando feijão e descascando ervilhas. Processadores de marisco enviaram crianças para brincar nas docas, alertando-as para não chegarem perto da água.

As mães deixaram os filhos sozinhos em berços e berços, e os trancaram em apartamentos e carros estacionados em lotes de fábricas. Eles os levaram para pais, avós, co-madres, mães brincalhões, vizinhos e estranhos. Eles os mandaram brincar com as mães pequenas - irmãos às vezes apenas um ou dois anos mais velhos. Eles os matricularam em acampamentos de verão e programas de recreação, levaram-nos a fazendas de bebês, doaram-nos a orfanatos e lares adotivos e os entregaram por contrato de trabalho. Eles os levaram para creches familiares e os deixaram em casa com babás, babás e babás, algumas delas trabalhadoras sem documentos.

As mães deixaram bebês e crianças em instalações pré-escolares de vários tamanhos e qualidades vestidos em farrapos, com bochechas manchadas e cabelos pegajosos, e os pegaram vestidos com aventais engomados, bochechas rosadas, cheirando a sabonete. As crianças foram rejeitadas porque estavam com febre, coriza ou piolhos, as mães deixaram seus empregos no meio do dia para pegar crianças com infecções de ouvido, catapora, acessos de raiva. Eles se separaram da prole que estava uivando, choramingando, sussurrando no canto com amigos, e os encontrou mais tarde rindo, famintos, irritadiços, quase chorando. Eles saíram sentindo-se culpados, tristes, ansiosos, com medo, com o coração na boca, sem nenhuma preocupação no mundo.

As mães deixaram seus bebês cochilando em carruagens estacionadas em frente a palácios de cinema, em creches de lojas de departamentos e serviços de estacionamento em pistas de boliche e shopping centers. Algumas mães colocaram seus filhos aos cuidados de outras pessoas e nunca mais voltaram.

Portanto, no final do século XIX, os cuidados infantis americanos passaram a consistir em uma série de disposições formais e informais geralmente associadas aos pobres, minorias e imigrantes e estigmatizadas como caridade e custódia. Esse padrão de práticas e instituições forneceu uma base fraca para a construção de serviços sociais do século XX. À medida que os esforços de reforma das mulheres ganharam força durante a Era Progressiva, no entanto, os cuidados infantis se tornaram um alvo para reforma e modernização.

O início da reforma do cuidado infantil

Para chamar a atenção para a necessidade de cuidar das crianças e demonstrar “métodos aprovados de criação de crianças desde a infância”, um grupo de filantropos proeminentes de Nova York liderado por Josephine Jewell Dodge montou um berçário de dia modelo no prédio infantil em Columbian de 1893 Exposição em Chicago e, em seguida, fundou a National Federation of Day Nurseries (NFDN), a primeira organização nacional dedicada a este assunto, em 1898.

Nesse ínterim, os reformadores começaram a formular outra solução para o dilema das mães pobres obrigadas a trabalhar fora de casa: pensões para mães ou viúvas. Na opinião de progressistas proeminentes como Jane Addams, creches só aumentaram as dificuldades dessas mulheres, encorajando-as a aceitar trabalhos árduos e mal pagos, enquanto seus filhos sofriam de atenção e cuidados inadequados. Assim, ela e seus colegas da Hull House, incluindo Julia Lathrop, que viria a se tornar a primeira chefe do Escritório Infantil dos EUA quando foi fundado em 1912, pediram uma política de apoio às mães para que pudessem ficar em casa com seus filhos. Ao contrário dos cuidados infantis, a ideia de pensões para mães rapidamente ganhou apoio popular porque não fez nada para desafiar os papéis convencionais de gênero. De fato, alguns reformadores argumentaram que as mães, assim como os soldados, estavam prestando um “serviço à nação” e, portanto, mereciam o apoio público quando não tinham um homem que sustenta a família. As pensões "se espalharam como um incêndio" (citado em Theda Skocpol, & # 8220Protecting Soldiers and Mothers: The Political Origins of Social Policy in the United States & # 8221 Cambridge: Harvard UP, 1992, p. 424) como várias grandes organizações nacionais, incluindo a Federação Geral de Clubes de Mulheres e o Congresso Nacional de Mães, montou uma campanha legislativa de grande sucesso em cada estado para esse benefício. Em 1930, quase todos os estados do sindicato haviam aprovado alguma forma de lei de pensão para mães ou viúvas, tornando esta a política de escolha para atender às necessidades de mães de baixa renda e empurrar os cuidados infantis ainda mais para as sombras da caridade.

The U.S. Children & # 8217s Bureau

Apesar da retórica, no entanto, as pensões das mães não podiam resolver totalmente os problemas das mães pobres e de baixa renda, e muitas mulheres não tinham alternativa a não ser trabalhar fora. Na maioria dos estados, o financiamento das pensões era inadequado e muitas mães se viram inelegíveis devido a critérios altamente restritivos ou práticas administrativas estritas e tendenciosas. As mulheres afro-americanas, em particular, freqüentemente tinham benefícios negados, tanto no Norte quanto no Sul, com o fundamento de que, ao contrário das mulheres brancas, estavam acostumadas a trabalhar por um salário e, portanto, não deveriam ser encorajadas a ficar em casa para criar seus filhos. Como a cobertura previdenciária era esporádica e dispersa, o emprego materno não apenas persistiu como aumentou, aumentando a demanda por creches. Os filantropos tiveram dificuldade em atender a essa necessidade crescente usando apenas financiamento privado. Com as pensões das mães monopolizando a agenda de política social, no entanto, elas não tinham perspectiva de ganhar financiamento público para creches.

Esse padrão continuou na década de 1920, quando o U.S. Children’s Bureau (CB) conduziu uma série de estudos sobre o trabalho materno e infantil na agricultura e na indústria em todo o país. Embora os investigadores tenham encontrado muitos casos de ferimentos, doenças e até fatalidades resultantes de situações em que bebês e crianças pequenas foram deixados sozinhos ou levados para locais de trabalho perigosos, o CB se recusou a defender o apoio federal para o cuidado infantil, em vez disso, trabalhou para fortalecer as mães. pensões para que mais mães pudessem ficar em casa. Os funcionários do CB foram influenciados, em parte, pelo pensamento de especialistas como o médico Douglas Thom, um defensor da orientação infantil que argumentou que mães assalariadas "desgastadas e cansadas" que não tinham tempo para o bem-estar de seus filhos sufocavam seu desenvolvimento. Ao mesmo tempo, a reputação das creches continuou a cair à medida que os esforços para atualizar seu componente educacional diminuíram devido à falta de fundos, e as creches, as queridinhas dos educadores da primeira infância da Era Progressiva, começaram a capturar a imaginação da classe média.

The New Deal e # 8217s Effect on Child Care

A Depressão e a Segunda Guerra Mundial tiveram um impacto misto na sorte dos cuidados infantis. Na véspera da Grande Depressão, menos de 300 creches estavam em operação, em comparação com 800 creches, mas com o aumento do desemprego, as matrículas em creches caíram drasticamente e as doações de caridade também diminuíram, forçando o fechamento de 200 creches entre 1931 e 1940 Enquanto isso, a pedido de proeminentes educadores da primeira infância, a Works Progress Administration (WPA), uma agência importante do New Deal, estabeleceu um programa de Escolas Infantis de Emergência (ENS). Destinadas principalmente a oferecer oportunidades de emprego a professores desempregados, essas escolas também foram vistas como um meio de compensar as “deficiências físicas e mentais” causadas pela crise econômica. Quase 3.000 escolas, matriculando mais de 64.000 crianças, foram iniciadas entre 1933 e 1934 no ano seguinte, estas foram consolidadas em 1.900 escolas com capacidade para aproximadamente 75.000 alunos. O programa cobriu quarenta e três estados e o Distrito de Columbia, Porto Rico e as Ilhas Virgens. Ao contrário das creches anteriores, que eram em grande parte privadas, cobravam taxas e atendiam a uma clientela de classe média, essas escolas gratuitas patrocinadas pelo governo eram abertas a crianças de todas as classes. Projetadas como escolas e não como creches, as ENS funcionavam apenas parte do dia e suas matrículas seriam restritas aos filhos de desempregados. No entanto, eles se tornaram uma forma de cuidado infantil de fato para pais empregados em vários projetos de ajuda humanitária da WPA. Ao contrário das creches, o componente educacional da ENS foi bem desenvolvido devido ao grande interesse dos educadores da primeira infância no programa.

Organizações como a National Association for Nursery Education, que estava ansiosa por divulgar as idéias da pedagogia progressista, até enviaram seus próprios funcionários para supervisionar o treinamento de professores e supervisionar os currículos. Os educadores ficaram frustrados, entretanto, por instalações e equipamentos inadequados e por dificuldades em convencer professores com experiência em sala de aula convencional a adotar uma abordagem menos estruturada para trabalhar com crianças pequenas. No final da década de 1930, a ENS também começou a sofrer com a alta rotatividade de pessoal, à medida que os professores saíam para assumir empregos mais bem remunerados em fábricas de defesa. Entre 1936 e 1942, quase 1.000 escolas foram forçadas a fechar.

Cuidado infantil e segunda guerra mundial

Embora a aproximação da Segunda Guerra Mundial tenha reduzido a crise de desemprego nos Estados Unidos, ela criou uma crise social à medida que milhões de mulheres, incluindo muitas mães, procuraram emprego em indústrias relacionadas à guerra. Apesar de uma escassez crítica de mão de obra, o governo federal inicialmente relutou em recrutar mães de crianças pequenas, alegando que “as mães que ficam em casa estão prestando um serviço patriótico essencial”. Obtendo o apoio de assistentes sociais, que se opunham ao emprego materno por motivos psicológicos, os funcionários do governo hesitaram em responder à necessidade sem precedentes de cuidados infantis. Em 1941, o Congresso aprovou a Lei Lanham, que pretendia criar instalações comunitárias em “áreas de impacto de guerra”, mas foi só em 1943 que isso foi interpretado como autorizando o apoio ao cuidado infantil.

Nesse ínterim, o Congresso alocou US $ 6 milhões para converter o restante do ENS em creches. A organização de novos serviços atolou na competição interagências no nível federal e na burocracia considerável envolvida quando as comunidades locais se candidataram a financiamento federal.De acordo com as próprias diretrizes do governo, uma vaga na creche era necessária para cada dez trabalhadoras da defesa, no entanto, quando a força de trabalho feminina atingiu o pico de 19 milhões em 1944, apenas 3.000 creches estavam funcionando, com capacidade para 130.000 crianças - muito pouco dos 2 milhões de lugares que eram teoricamente necessários. A opinião pública demorou a aceitar as idéias duplas de emprego materno e cuidado infantil. A mídia popular frequentemente noticiava sobre a disseminação de “crianças chave” e sobre casos de crianças dormindo encontradas trancadas em carros em estacionamentos de empresas enquanto suas mães trabalhavam no turno da noite. Essas histórias serviram para castigar mães assalariadas “egoístas”, em vez de apontar a necessidade de cuidar dos filhos. Ao mesmo tempo, os especialistas em crianças alertaram os pais de que as crianças sob cuidados em grupo podem sofrer os efeitos da "privação materna" e os incentivaram a manter ambientes familiares tranquilos para proteger seus filhos da agitação da guerra.

Os cuidados infantis existentes pouco ajudaram a dissipar as preocupações do público. Organizados às pressas e muitas vezes com pessoal insuficiente, a maioria dos centros ficou muito aquém dos altos padrões que os educadores da primeira infância buscaram estabelecer para a ENS. Uma exceção foram os Centros de Serviços à Criança criados pela Kaiser Company em seus estaleiros em Portland, Oregon. Projetados por arquitetos e dimensionados de acordo com as necessidades das crianças, eles ofereciam cuidados 24 horas por dia (para acomodar trabalhadores do turno da noite), uma equipe altamente treinada, um currículo planejado por importantes especialistas em primeira infância e até mesmo um serviço de comida cozida para os cansados pais pegando seus filhos depois de um turno difícil. Apesar de suas inadequações, o New Deal patrocinado pelo governo federal e as creches em tempos de guerra marcaram um passo importante na provisão social americana. O Congresso, no entanto, teve receio de criar serviços permanentes e enfatizou repetidamente que o apoio público seria fornecido "apenas durante o período".

Logo após o V-J Day, o financiamento para a Lei Lanham foi cortado, forçando a maioria das creches a fechar em um ou dois anos. Mas a necessidade de creches persistiu, à medida que o emprego materno, após uma queda inicial devido às demissões no pós-guerra, na verdade começou a aumentar. Em todo o país, organizações nacionais como a Child Welfare League of America, juntamente com vários grupos locais, manifestaram-se e fizeram lobby para continuar a apoiar o público. Esses grupos não conseguiram persuadir o Congresso a aprovar a Lei de Bem-Estar Materno e Infantil de 1946, que teria continuado o financiamento federal para creches, mas conseguiram provisões públicas de creches na cidade de Nova York, Filadélfia e Washington, D.C. e na Califórnia. Durante a Guerra da Coréia, o Congresso aprovou um programa público de creches, mas recusou-se a alocar fundos para ele.

Depois da segunda guerra mundial

Finalmente, em 1954, o Congresso encontrou uma abordagem para o cuidado infantil com a qual poderia conviver: a dedução do imposto sobre o cuidado infantil. Isso permitiu que famílias de renda baixa a moderada (os casais poderiam ganhar até US $ 4.500 por ano) deduzissem até US $ 600 para creches de seus impostos de renda, desde que os serviços fossem necessários "para permitir que o contribuinte tivesse um emprego remunerado". A dedução de impostos ofereceu algum alívio financeiro a certos grupos de pais, mas os reformadores não ficaram satisfeitos, pois tal medida deixava de abordar questões básicas como fornecimento, distribuição, acessibilidade e qualidade da creche. Em 1958, com base na experiência que haviam adquirido no lobby por provisões do pós-guerra, os ativistas formaram uma organização nacional dedicada exclusivamente ao cuidado infantil, o Comitê Intermunicipal para Creches para Crianças (ICC, que mais tarde se tornaria o Comitê Nacional sobre Creches das crianças). A organização foi liderada por Elinor Guggenheimer, uma antiga ativista de cuidados infantis de Nova York Sadie Ginsberg, líder da Associação de Estudos Infantis da América Cornelia Goldsmith, funcionária da cidade de Nova York que ajudou a estabelecer um sistema de licenciamento para cuidados infantis naquela cidade e Winifred Moore, uma especialista em cuidados infantis que havia trabalhado tanto no governo quanto no setor privado. Ao contrário de sua antecessora, a National Federation of Day Nurseries (que havia sido absorvida pela Child Welfare League of America em 1942), o ICC acreditava que a instituição de caridade privada não poderia fornecer cuidados infantis adequados por conta própria, a nova organização procurou trabalhar de perto com agências governamentais como o US Children's Bureau e o US Women's Bureau para obter apoio federal.

O ICC experimentou uma série de fundamentos diferentes para o cuidado infantil, geralmente preferindo evitar referências ao emprego materno em favor de enfatizar a necessidade de "salvaguardar o bem-estar das crianças". Em 1958 e 1959, o ICC ajudou a mobilizar apoio popular para vários projetos de lei de cuidados infantis apresentados ao Congresso pelo senador Jacob Javits (R – Nova York), mas sem sucesso. O ICC conseguiu convencer o CB e o WB a co-patrocinar uma Conferência Nacional sobre Creche Infantil em Washington, DC, em novembro de 1960. Nessa conferência, vários funcionários do governo apontaram para a crescente demanda por mão de obra e o que agora parecia ser uma tendência irreversível em relação ao emprego materno, mas muitos participantes continuaram a expressar ambivalência sobre colocar crianças pequenas sob cuidados em grupo. Guggenheimer, no entanto, observou que as mães trabalhariam “quer haja bons cuidados disponíveis ou não. É a criança ”, enfatizou ela,“ que sofre quando o atendimento é deficiente ”. Guggenheimer não pediu diretamente o apoio do governo para o cuidado infantil, mas deixou claro que as agências privadas e voluntárias não poderiam mais arcar com o fardo.

O CB e o WB, sob a direção de chefes nomeados pelo presidente Dwight D. Eisenhower, estavam relutantes em assumir a liderança nesta questão, mas o presidente eleito, John F. Kennedy, em uma mensagem à conferência, expressou sua consciência de o problema, afirmando: “Acredito que devemos tomar medidas adicionais para encorajar programas de creche que protejam nossos filhos e lhes forneçam uma base para uma vida plena nos anos posteriores.” A mensagem de Kennedy, junto com as declarações subsequentes, implicava que sua administração buscava uma abordagem ampla para o cuidado infantil. Em um relatório amplamente divulgado, a Comissão do Presidente sobre a Situação da Mulher reconheceu que o emprego materno estava se tornando a norma e apontou que cuidar dos filhos não só poderia ajudar as mulheres que decidissem trabalhar fora de casa, mas também servir como um benefício de desenvolvimento para as crianças e ajudar a promover a integração social e racial. Mas o governo Kennedy não conseguiu reunir apoio político suficiente para levar a cabo uma política universal de cuidados infantis.

Ajuda a famílias com filhos dependentes (AFDC)

Em vez disso, em dois projetos de lei de reforma da previdência, aprovados em 1962 e 1965, o Congresso vinculou o apoio federal para creches a políticas destinadas a encorajar mulheres pobres e de baixa renda a ingressar em programas de treinamento ou conseguir empregos fora de casa. O objetivo era reduzir o número de americanos recebendo “bem-estar” (Ajuda a Famílias com Filhos Dependentes, ou AFDC) e evitar que as mulheres se tornassem beneficiárias. De 1969 a 1971, uma coalizão de feministas, líderes trabalhistas, líderes dos direitos civis e defensores da primeira infância trabalhou com o Congresso para legislar uma política universal de cuidados infantis, mas seus esforços falharam quando o presidente Nixon vetou a Lei de Desenvolvimento Infantil Abrangente de 1971. Como resultado, nas três décadas seguintes, o apoio federal direto para o cuidado infantil foi limitado às políticas “direcionadas” às famílias de baixa renda. Ao mesmo tempo, entretanto, o governo federal ofereceu vários tipos de apoio indireto às famílias de classe média e alta na forma de incentivos fiscais para creches patrocinadas pelo empregador e várias maneiras de usar os custos de creche para reduzir o imposto de renda pessoal.

A era Reagan e a reforma do bem-estar na década de 1990

Na década de 1980, sob o governo Reagan, o saldo do financiamento federal de creches mudou, à medida que os gastos com famílias de baixa renda foram drasticamente reduzidos, enquanto os que beneficiam famílias de renda média e alta quase dobraram. Essas medidas estimularam o crescimento de creches voluntárias e com fins lucrativos, muitas das quais fora do alcance das famílias de baixa renda. Essas famílias receberam alguma ajuda do Fundo de Apoio e Desenvolvimento Infantil (CCDBG), aprovado em 1990, que destinou US $ 825 milhões a estados individuais. O Ato de Responsabilidade Pessoal e Reconciliação de Oportunidades de Trabalho de 1996 substituiu o AFDC por assistência pública por tempo limitado, juntamente com rígidos mandatos trabalhistas. Reconhecendo a necessidade de ampliar o cuidado infantil para apoiar esse plano de bem-estar para o trabalho, o Congresso combinou o CCDBG, junto com vários programas menores, em um subsídio de bloco único - o Fundo de Cuidado e Desenvolvimento Infantil.

Embora mais fundos públicos para creches estivessem disponíveis do que nunca, problemas de abastecimento e qualidade continuam a limitar o acesso a creches para beneficiários da previdência que agora são obrigados a aceitar um emprego, e famílias de renda moderada devem lidar com os custos cada vez maiores para crianças Cuidado. Para todas as famílias, a qualidade da creche é comprometida pela alta taxa de rotatividade dos funcionários da área, por si só, resultado de baixos salários e baixos benefícios. Por causa de sua longa história e estrutura atual, o sistema americano de creches está dividido entre as classes, tornando difícil para os pais se unirem e fazerem lobby por melhores serviços e maior financiamento público para creches para todas as crianças. Quando se trata de provisões públicas para crianças e famílias, os Estados Unidos se comparam mal a outras nações industriais avançadas, como França, Suécia e Dinamarca, que não só oferecem assistência gratuita ou subsidiada a crianças com mais de três anos, mas também fornecem licença maternidade ou paternidade remunerada . Ao contrário dos Estados Unidos, esses países usam a creche não como uma alavanca em uma rígida política de emprego obrigatório para mães de baixa renda], mas como um meio de ajudar os pais de todas as classes] a conciliar as demandas do trabalho e da vida familiar.

Para maiores informações, consulte o livro do Dr. Michel & # 8217s, Filhos & # 8217s Interesses / Mothers & # 8217s Rights: The Shaping of America & # 8217s Child Care Policy.

Como citar este artigo (formato APA): Michel, S. (2011). A história do cuidado infantil nos EUA Projeto de História da Assistência Social. Obtido em http://socialwelfare.library.vcu.edu/programs/child-care-the-american-history/

19 respostas para & ldquoThe History of Child Care in the U.S. & rdquo

Este artigo me fez realmente pensar sobre o quão longe chegaram os cuidados infantis nos Estados Unidos. Embora tenha avançado tremendamente, este artigo faz com que você examine tudo e busque respostas sobre por que cuidar de crianças era algo tão questionável naquela época. É claro que essas mães, a maioria delas, de qualquer forma, realmente não tinham escolha a não ser trabalhar para prover e o fato de que isso foi questionado e desprezado está além das palavras. De qualquer forma, agradecendo a todas as pessoas incríveis que ainda lutaram por todas essas crianças e suas mães para tornar suas vidas um pouco menos estressantes.

É encorajador saber que não importa quão baixo seja o salário ou quão difíceis sejam os desafios, sempre houve líderes educacionais que forneceram excelentes cuidados na primeira infância que todas as crianças merecem.


Assista o vídeo: HISTORIA DE ALEJANDRO Y SOL 111 FINAL